トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3398 1...339133923393339433953396339733983399 新しいコメント mytarmailS 2024.02.24 06:59 #33971 Aleksey Vyazmikin #:スレッド全体の要約 楽しく聴いた mytarmailS 2024.02.24 08:43 #33972 mytarmailS #: 楽しく聴きました これもいいhttps://youtu.be/EutX1Knl6v4?si=bBicqPoh474EiRIc ; Maxim Dmitrievsky 2024.02.24 10:12 #33973 ベーシックの最後にはコズラがある。 mytarmailS 2024.02.24 10:17 #33974 最初は逆だと思う。 Maxim Dmitrievsky 2024.02.24 10:19 #33975 mytarmailS #: 最初は逆だと思うよ。 私はアレクセイのビデオのことを言ったのであって、あなたのビデオはまだ見ていない。あなたのは機能選択についてです。僕はあまり好きじゃないんだ、看板が少ないから(笑)。 mytarmailS 2024.02.24 10:29 #33976 Maxim Dmitrievsky #: というのも、私にはあまり特徴がないからだ)。 そうやって、"多くの "異なるものから、"多くはないが "良いものを得る。 そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。 Maxim Dmitrievsky 2024.02.24 12:27 #33977 mytarmailS #:そうやって、"たくさんの "さまざまなものの中から、"多くはない "が良いものを得るのだ。そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。 それはgmdhでも何でも行われてきたことだ。Kozulは期待できそうだ(Kozulに基づくアルゴリズムを考え出すのは非常に難しい。)そして言語モデルだが、これを訓練するのは非常に難しい。Googleのものはもっと短く、20億のパラメータを持つ小さなモデルがある。一発勝負の方法論だ。 mytarmailS 2024.02.24 13:25 #33978 Maxim Dmitrievsky #: gmdhか何か知らないけど、 。 Kozulは期待できそうだ(Kozulに基づいたアルゴリズムを考え出すのは非常に難しい。)そして言語モデルだが、これを訓練するのは非常に難しい。Googleのものはもっと短く、20億パラメータの小さなモデルがある。一発勝負の方法論だ。 LLMはそれと何の関係があるのですか? Maxim Dmitrievsky 2024.02.24 13:29 #33979 mytarmailS #:LLMと何の関係があるのですか? 理論的には、よく一般化されるからだ。 訓練サンプルが大きければ大きいほど、統計は良くなる(一般的に)。 mytarmailS 2024.02.24 13:59 #33980 Maxim Dmitrievsky #: 理論的には、うまく一般化できるからだ。 何十億もの単語データセットで訓練されているからだ。 ニューロンを訓練して何をさせるつもりなんだ? 多くの視覚化が必要だからだ。 ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか? 1...339133923393339433953396339733983399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
スレッド全体の要約
楽しく聴きました
最初は逆だと思うよ。
というのも、私にはあまり特徴がないからだ)。
そうやって、"多くの "異なるものから、"多くはないが "良いものを得る。
そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。
そうやって、"たくさんの "さまざまなものの中から、"多くはない "が良いものを得るのだ。
そして、最初に "たくさん "あればあるほど、最後には"多くは ないが "良いものを得ることができる。
gmdhか何か知らないけど、 。
LLMはそれと何の関係があるのですか?
LLMと何の関係があるのですか?
理論的には、よく一般化されるからだ。
訓練サンプルが大きければ大きいほど、統計は良くなる(一般的に)。
理論的には、うまく一般化できるからだ。
何十億もの単語データセットで訓練されているからだ。
ニューロンを訓練して何をさせるつもりなんだ?
多くの視覚化が必要だからだ。
ということは、私が何も知らないのか、はたまたLLMと何の関係があるのか?