トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3398

 
Aleksey Vyazmikin #:

スレッド全体の要約


楽しく聴いた
 
mytarmailS #:
楽しく聴きました
これもいいhttps://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc 
 
ベーシックの最後にはコズラがある。
 
最初は逆だと思う。
 
mytarmailS #:
最初は逆だと思うよ。
私はアレクセイのビデオのことを言ったのであって、あなたのビデオはまだ見ていない。あなたのは機能選択についてです。僕はあまり好きじゃないんだ、看板が少ないから(笑)。
 
Maxim Dmitrievsky #:
というのも、私にはあまり特徴がないからだ)。

そうやって、"多くの "異なるものから、"多くはないが "良いものを得る。

そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。

 
mytarmailS #:

そうやって、"たくさんの "さまざまなものの中から、"多くはない "が良いものを得るのだ。

そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。

それはgmdhでも何でも行われてきたことだ。
Kozulは期待できそうだ(Kozulに基づくアルゴリズムを考え出すのは非常に難しい。)そして言語モデルだが、これを訓練するのは非常に難しい。Googleのものはもっと短く、20億のパラメータを持つ小さなモデルがある。一発勝負の方法論だ。
 
Maxim Dmitrievsky #:
gmdhか何か知らないけど、 。
Kozulは期待できそうだ(Kozulに基づいたアルゴリズムを考え出すのは非常に難しい。)そして言語モデルだが、これを訓練するのは非常に難しい。Googleのものはもっと短く、20億パラメータの小さなモデルがある。一発勝負の方法論だ。

LLMはそれと何の関係があるのですか?

 
mytarmailS #:

LLMと何の関係があるのですか?

理論的には、よく一般化されるからだ。

訓練サンプルが大きければ大きいほど、統計は良くなる(一般的に)。

 
Maxim Dmitrievsky #:
理論的には、うまく一般化できるからだ。

何十億もの単語データセットで訓練されているからだ。

ニューロンを訓練して何をさせるつもりなんだ?

多くの視覚化が必要だからだ。


ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか?

理由: