트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 3398

 
Aleksey Vyazmikin #:

전체 스레드를 잘 요약한 글


즐겁게 들음
 
mytarmailS #:
즐겁게 들었습니다.
이것도 좋아요 https://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
기본 사항의 끝에 코줄라가 있습니다.
 
정확히 어디요? 처음에는 그 반대라고 말하고 싶네요.
 
mytarmailS #:
정확히 어디요? 처음에는 그 반대라고 말씀드리고 싶네요.
알렉세이의 영상을 말씀드린 건데, 아직 당신의 영상은 못 봤어요. 당신의 것은 기능 선택에 관한 것입니다. 표지판이 많지 않아서 별로 마음에 들지 않아요.)
 
Maxim Dmitrievsky #:
저는 특성이 많지 않으니까요.)

"많은" 다른 특성에서 "많지는 않지만" 좋은 특성을 얻는 것이 작동하는 방식입니다.

그리고 처음에 "많은" 특성을 많이 가질수록 마지막에는 "많지는 않지만" 더 풍부하고 좋은 특성을 얻게 됩니다.

 
mytarmailS #:

'많은' 다른 것들 중에서 '많지는 않지만' 좋은 것을 얻는 것이 작동하는 방식입니다.

그리고 처음에 "많은" 것을 가질수록 "많지는 않지만" 마지막에는 더 풍부하고 좋은 것을 얻게 됩니다.

GMDH인지 뭔지를 통해 이루어졌습니다.
Kozul은 유망 해 보입니다 (이를 기반으로 알고리즘을 만드는 것은 매우 어렵고 상상력이 필요합니다). 그리고 언어 모델-훈련하기가 매우 어렵습니다. Google의 이것들은 더 짧고 20 억 개의 매개 변수에 대한 작은 모델이 있으며 여전히 훈련을 시도 할 수 있습니다. 원샷 방법론.
 
Maxim Dmitrievsky #:
그것은 gmdh 또는 그것이 무엇이든간에 이루어졌습니다
.
Kozul은 유망 해 보입니다 (이를 기반으로 알고리즘을 만드는 것은 매우 어렵고 상상력이 필요합니다). 그리고 언어 모델-훈련하기가 매우 어렵습니다. Google의 이것들은 더 짧고 20 억 개의 매개 변수에 대한 작은 모델이 있으며 여전히 훈련을 시도 할 수 있습니다. 원샷 방법론.

LLM은 그것과 어떤 관련이 있습니까?

 
mytarmailS #:

LLM과 무슨 관련이 있나요?

이론적으로 일반화가 잘 되기 때문입니다.

훈련 표본이 클수록 (일반적으로) 통계가 더 잘 나옵니다.

 
Maxim Dmitrievsky #:
이론적으로는 잘 일반화되기 때문입니다.

수십억 개의 단어 데이터 세트를 학습했기 때문에 잘 일반화할 수 있고, 우리에게는 가격이 있기 때문입니다.

뉴런을 말하도록 훈련시킨다면 어떻게 훈련시킬 수 있을까요?

그리고 많은 시각화가 필요하기 때문에 가격에 대해 뉴런을 훈련시킬 수 없습니다.


그렇다면 제가 모르는 것이거나 다시 말하지만, LLM과 무슨 관련이 있을까요?

사유: