トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3297 1...329032913292329332943295329632973298329933003301330233033304...3399 新しいコメント Maxim Dmitrievsky 2023.10.11 12:32 #32961 Andrey Dik #:最適化について書いてないのに、なぜ突っかかってくるの?君には書いていない。学習は最適化の特別なケースなんだ。 サンシュはすべてを正しく書いた。すべては私のメッセージから始まった。あなたは間違ったデブリに入った。何も書いていないことがわかった。 fxsaber 2023.10.11 12:32 #32962 Andrey Dik #: SSGよりもさらに強力なアルゴリズムが発見されたのだ。 これは実に良いことだ。 Maxim Dmitrievsky 2023.10.11 12:35 #32963 度重なる故障の症の症。そして、トレーニングには独自の評価基準が用いられる。このトピックは「MOE」と呼ばれる。 fxsaber 2023.10.11 12:39 #32964 Maxim Dmitrievsky #: あなたは実体を混同している。最適化を近似に当てはめようとしているのか、あるいはその逆なのか。 近似と最適化は、機械学習の問題を解くための異なるアプローチだ。 ー私がーアルゴ取引におけるーにおけるー近似はーTSのー作成。ー マーティンをー作成、ー スキャルパーをー作成、ー パターンをー作成、ー などなどーMOメソッドに何かを作らせることができる。 そして、最適化とは、すでに作られたTSの調整/研究である。 ー人間とはーとはーとはーとはーとはーとはーとはー、ーMOはー、ーのー、ーのーソフトウェアーーーーーーーーーわかったかい? Maxim Dmitrievsky 2023.10.11 12:49 #32965 fxsaber #:私の理解が正しければ、アルゴ取引では、近似値とはTSの作成そのものである。マーティンを作りたい、スキャルパーを作りたい、パターンを作りたい、などなど。MOメソッドに何かを作成するように指示することができます。そして最適化とは、すでに作成されたTSをチューニング/研究することです。人間と違って、MOはナンバー・クランチャーを通してTCの作成にも関与しているので、近似と最適化を組み合わせることができる。それでいいんですか? その通り Maxim Dmitrievsky 2023.10.11 12:58 #32966 高次の多項式による近似はオーバートレーニングにつながる。誤差の分散は減少するが、新しいデータに対するバイアスは増加する。多くの特徴を追加するのと同じです。基本的な再トレーニングされたモデルをチューニングすることはできません。テストサンプルとコントロールサンプルの比較がないので、コズール推論ができない。モデルはテストサンプルのいたるところで間違っており、補正を導くことは不可能です。モデルを捨てる方が簡単です。 fxsaber 2023.10.11 12:58 #32967 Maxim Dmitrievsky #: その通りだ。 興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較すると、人間と比較するとインフゾリアのようなものだ。 しかし、原始的な人類は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど膨大なデータは必要ないことがわかった。 例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしで行われた。 そのシナリオはこんな感じだったに違いない: 私はよく、ある種のフラットニングを見る(数日間、画面上で愚かに)。 それを原始的なTSで稼ごうとする。 あまり消耗しない。私は少しTSを洗練する必要があります。取引履歴を見たが、何か改善できそうだ。 少しプラスになり始めた。ポイント3を繰り返す。 数字計算をしない。ポイント1を見て、やり始めた。確率はゼロに等しいが、なぜかうまくいく。ある種の作業的マッドポーク法だ。 どうやら、人間の脳は潜在意識のどこかで、極端に少ないデータから「パターン」を見つけ出すことができるようだ。運とは呼べない。不思議だ。 Maxim Dmitrievsky 2023.10.11 13:05 #32968 fxsaber #:興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。しかし、原始的な人間は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど大量のデータは必要ないことがわかった。例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしでできたことだ。そのシナリオは次のようなものだったらしい: よく何かしらのパンクを見かける(数日前からバカみたいに画面を削っている)。 原始的なTSで稼いでみる。 あまり消耗しない。もう少しTSを洗練させなければ。取引履歴を見たが、何か改善できそうだ。 少しプラスになり始めた。ポイント3を繰り返す。 数字計算をしない。ポイント1を見てやり始めた。この方法の確率はゼロに等しいようだが、なぜかうまくいく。ある種の作業的マッドポーク法。 一発学習。大規模な事前学習済みNS(脳)が、ほんの数例の左データで事前学習された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。特に大規模な言語モデルは、こうして新しいタスクの事前学習が行われる。しかし、このような新しい例を長時間学習させると、以前の経験を忘れ始め、新しいデータに偏り始める。 Forester 2023.10.11 13:12 #32969 fxsaber #:興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。 1,500億のニューロン、しかも1つ1つの出力ではなく、多くの出力がある。AIがそのようなレベルまで成長することは、すぐにはないだろうし、これからもないだろう。 NSは、知能のレベルでゴキブリに例えられる。 Andrey Dik 2023.10.11 13:33 #32970 Maxim Dmitrievsky #: 一発学習。大規模な事前学習済みNS(脳)が、ほんの数例の左データで事前学習された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。 ここでは、あなた自身が、左のデータで事前に訓練された脳が、以前は知らなかった特定の問題を解決することを示している。 1...329032913292329332943295329632973298329933003301330233033304...3399 新しいコメント 理由: キャンセル 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
SSGよりもさらに強力なアルゴリズムが発見されたのだ。
これは実に良いことだ。
あなたは実体を混同している。最適化を近似に当てはめようとしているのか、あるいはその逆なのか。
近似と最適化は、機械学習の問題を解くための異なるアプローチだ。
ー私がーアルゴ取引におけるーにおけるー近似はーTSのー作成。ー マーティンをー作成、ー スキャルパーをー作成、ー パターンをー作成、ー などなどーMOメソッドに何かを作らせることができる。
そして、最適化とは、すでに作られたTSの調整/研究である。
ー人間とはーとはーとはーとはーとはーとはーとはー、ーMOはー、ーのー、ーのーソフトウェアーーーーーーーーーわかったかい?
私の理解が正しければ、アルゴ取引では、近似値とはTSの作成そのものである。マーティンを作りたい、スキャルパーを作りたい、パターンを作りたい、などなど。MOメソッドに何かを作成するように指示することができます。
そして最適化とは、すでに作成されたTSをチューニング/研究することです。
人間と違って、MOはナンバー・クランチャーを通してTCの作成にも関与しているので、近似と最適化を組み合わせることができる。それでいいんですか?
その通りだ。
興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較すると、人間と比較するとインフゾリアのようなものだ。
しかし、原始的な人類は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど膨大なデータは必要ないことがわかった。
例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしで行われた。
そのシナリオはこんな感じだったに違いない:
どうやら、人間の脳は潜在意識のどこかで、極端に少ないデータから「パターン」を見つけ出すことができるようだ。運とは呼べない。不思議だ。
興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。
しかし、原始的な人間は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど大量のデータは必要ないことがわかった。
例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしでできたことだ。
そのシナリオは次のようなものだったらしい:
興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。
1,500億のニューロン、しかも1つ1つの出力ではなく、多くの出力がある。AIがそのようなレベルまで成長することは、すぐにはないだろうし、これからもないだろう。
NSは、知能のレベルでゴキブリに例えられる。
一発学習。大規模な事前学習済みNS(脳)が、ほんの数例の左データで事前学習された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。
ここでは、あなた自身が、左のデータで事前に訓練された脳が、以前は知らなかった特定の問題を解決することを示している。