トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3399

 
mytarmailS #:

何十億もの単語データセットで訓練されているため、うまく一般化できる。

もしニューロンを話すように訓練したら、何をするように訓練するつもりですか?

多くの視覚化が必要だからだ。


ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか?

ボロンツォフはビデオの中でこう言っている。ファンダメンタルモデルの概念について、1時間目から。

私はこう尋ねた。


 
Maxim Dmitrievsky #:

ボロンツォフはビデオで話している。ファンダメンタルモデルのコンセプトについて。

ああ、思い出した。

これは一種の概念で、どんな情報もベクトルに還元することができる。

LLMはテキストを埋め込むために訓練されているのであって、それ以上のものではありません。

ですから、もしあなたが独自のOHLCエンベッディングをLLMに与えたとしても、何も起こりません ))) 。


異なる埋め込み、異なるタスク、異なるターゲット......同時に、テキストを書き、絵を描き、話す......つまりマルチモーダリティで、ゼロから訓練する必要があります。

テキストが書けるネウラにOHLCを与えても、うまくいかないでしょう。

 
mytarmailS #:

ああ、思い出した。

つまり、どんな情報でもベクトルに還元することができるという概念なんだ。

LLMはテキスト埋め込みのために訓練されたのであって、それ以上のものではないんだ。

だから、OHLCを使って独自の埋め込みを行ったとしても、何も起こりません )))

知識の蒸留は、モデルがその一般的な「知識」をあなたの領域に転送するときに起こるかもしれません。ーちょっとー曖昧ですがーー。

知識は数字やテキスト、絵、さらには音やプログラムコードに変換することができる。
 
Maxim Dmitrievsky #:

知識の蒸留は、モデルがその一般的な「知識」をあなたのドメインに転送するときに発生する可能性があります。ちょっとあいまいですが、こんな感じです。

何も起こらない。

あるデータで訓練されたPCAを想像してほしい。

そこに見慣れないデータが加わると、それはただ孤立した点の集まりのようなもので、ニューロンはそれをどう扱えばいいのかわからない。

なぜなら、そのクラスターは彼女が働いたことのない座標にあるからだ。

 
mytarmailS #:

何も起こらないよ。

あるデータに対してPCAが訓練されたことを想像してほしい。

そこに見慣れないデータを加えても、それは一種の孤立した点の集まりとして現れるだけで、ネウラにはそれをどう扱っていいのかわからない。

なぜなら、そのクラスターは彼女がこれまで働いたことのない座標にあるからだ。

まあ、今時はみんなそうしていることだけどね。例を探さないといけないね。

モデルの重み(リンク)を更新するのであって、新しい点を追加するわけではない。
 
Maxim Dmitrievsky #:

まあ、最近は誰もがそうしていることだよ。例を探す必要があるね。

あなたはモデルの重みを更新しているのであって、新しいポイントを追加しているわけではありません。

わかってないね。

 
mytarmailS #:

君には理解できない。

それは分かるけど、そういう仕組みじゃないんだ。あらゆる情報を意味的なベクトルにエンコードし、データの性質は関係ない。すでにすべての記号を知っている。重要なのはその順序なんだ。

 
ああ、邪魔はしていないよ。ただ、当面の間、"やってみる "ための話題なんだ :)
理由: