그리고 처음에 "많은" 것을 가질수록 "많지는 않지만" 마지막에는 더 풍부하고 좋은 것을 얻게 됩니다.
GMDH인지 뭔지를 통해 이루어졌습니다.
Kozul은 유망 해 보입니다 (이를 기반으로 알고리즘을 만드는 것은 매우 어렵고 상상력이 필요합니다). 그리고 언어 모델-훈련하기가 매우 어렵습니다. Google의 이것들은 더 짧고 20 억 개의 매개 변수에 대한 작은 모델이 있으며 여전히 훈련을 시도 할 수 있습니다. 원샷 방법론.
Maxim Dmitrievsky #: 그것은 gmdh 또는 그것이 무엇이든간에 이루어졌습니다 .
Kozul은 유망 해 보입니다 (이를 기반으로 알고리즘을 만드는 것은 매우 어렵고 상상력이 필요합니다). 그리고 언어 모델-훈련하기가 매우 어렵습니다. Google의 이것들은 더 짧고 20 억 개의 매개 변수에 대한 작은 모델이 있으며 여전히 훈련을 시도 할 수 있습니다. 원샷 방법론.
전체 스레드를 잘 요약한 글
즐겁게 들었습니다.
정확히 어디요? 처음에는 그 반대라고 말씀드리고 싶네요.
저는 특성이 많지 않으니까요.)
"많은" 다른 특성에서 "많지는 않지만" 좋은 특성을 얻는 것이 작동하는 방식입니다.
그리고 처음에 "많은" 특성을 많이 가질수록 마지막에는 "많지는 않지만" 더 풍부하고 좋은 특성을 얻게 됩니다.
'많은' 다른 것들 중에서 '많지는 않지만' 좋은 것을 얻는 것이 작동하는 방식입니다.
그리고 처음에 "많은" 것을 가질수록 "많지는 않지만" 마지막에는 더 풍부하고 좋은 것을 얻게 됩니다.
그것은 gmdh 또는 그것이 무엇이든간에 이루어졌습니다
.
LLM은 그것과 어떤 관련이 있습니까?
LLM과 무슨 관련이 있나요?
이론적으로 일반화가 잘 되기 때문입니다.
훈련 표본이 클수록 (일반적으로) 통계가 더 잘 나옵니다.
이론적으로는 잘 일반화되기 때문입니다.
수십억 개의 단어 데이터 세트를 학습했기 때문에 잘 일반화할 수 있고, 우리에게는 가격이 있기 때문입니다.
뉴런을 말하도록 훈련시킨다면 어떻게 훈련시킬 수 있을까요?
그리고 많은 시각화가 필요하기 때문에 가격에 대해 뉴런을 훈련시킬 수 없습니다.
그렇다면 제가 모르는 것이거나 다시 말하지만, LLM과 무슨 관련이 있을까요?