トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3297

 
Andrey Dik #:

最適化について書いてないのに、なぜ突っかかってくるの?
君には書いていない。
学習は最適化の特別なケースなんだ。
サンシュはすべてを正しく書いた。すべては私のメッセージから始まった。あなたは間違ったデブリに入った。

何も書いていないことがわかった。
 
Andrey Dik #:
SSGよりもさらに強力なアルゴリズムが発見されたのだ。

これは実に良いことだ。

 
度重なる故障の症の症。そして、トレーニングには独自の評価基準が用いられる。

このトピックは「MOE」と呼ばれる。
 
Maxim Dmitrievsky #:
あなたは実体を混同している。最適化を近似に当てはめようとしているのか、あるいはその逆なのか。

近似と最適化は、機械学習の問題を解くための異なるアプローチだ。

ー私がーアルゴ取引におけるーにおけるー近似はーTSのー作成。ー マーティンをー作成、ー スキャルパーをー作成、ー パターンをー作成、ー などなどーMOメソッドに何かを作らせることができる。

そして、最適化とは、すでに作られたTSの調整/研究である。

ー人間とはーとはーとはーとはーとはーとはーとはー、ーMOはー、ーのー、ーのーソフトウェアーーーーーーーーーわかったかい?

 
fxsaber #:

私の理解が正しければ、アルゴ取引では、近似値とはTSの作成そのものである。マーティンを作りたい、スキャルパーを作りたい、パターンを作りたい、などなど。MOメソッドに何かを作成するように指示することができます。

そして最適化とは、すでに作成されたTSをチューニング/研究することです。

人間と違って、MOはナンバー・クランチャーを通してTCの作成にも関与しているので、近似と最適化を組み合わせることができる。それでいいんですか?

その通り
 
高次の多項式による近似はオーバートレーニングにつながる。誤差の分散は減少するが、新しいデータに対するバイアスは増加する。多くの特徴を追加するのと同じです。基本的な
再トレーニングされたモデルをチューニングすることはできません。テストサンプルとコントロールサンプルの比較がないので、コズール推論ができない。モデルはテストサンプルのいたるところで間違っており、補正を導くことは不可能です。モデルを捨てる方が簡単です。
 
Maxim Dmitrievsky #:
その通りだ。

興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較すると、人間と比較するとインフゾリアのようなものだ。

しかし、原始的な人類は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど膨大なデータは必要ないことがわかった。

例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしで行われた。


そのシナリオはこんな感じだったに違いない:

  1. 私はよく、ある種のフラットニングを見る(数日間、画面上で愚かに)。
  2. それを原始的なTSで稼ごうとする。
  3. あまり消耗しない。私は少しTSを洗練する必要があります。取引履歴を見たが、何か改善できそうだ。
  4. 少しプラスになり始めた。ポイント3を繰り返す。
数字計算をしない。ポイント1を見て、やり始めた。確率はゼロに等しいが、なぜかうまくいく。ある種の作業的マッドポーク法だ。


どうやら、人間の脳は潜在意識のどこかで、極端に少ないデータから「パターン」を見つけ出すことができるようだ。運とは呼べない。不思議だ。

 
fxsaber #:

興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。

しかし、原始的な人間は、かなり優れたTCを作ることができることを証明している。動くTCを作るのに、それほど大量のデータは必要ないことがわかった。

例えば、人間がどのようにしてスキャルパー・モデルを使えるようになったのか、私には謎である。それはほとんど数字計算機なしでできたことだ。


そのシナリオは次のようなものだったらしい:

  1. よく何かしらのパンクを見かける(数日前からバカみたいに画面を削っている)。
  2. 原始的なTSで稼いでみる。
  3. あまり消耗しない。もう少しTSを洗練させなければ。取引履歴を見たが、何か改善できそうだ。
  4. 少しプラスになり始めた。ポイント3を繰り返す。
数字計算をしない。ポイント1を見てやり始めた。この方法の確率はゼロに等しいようだが、なぜかうまくいく。ある種の作業的マッドポーク法。
一発学習。大規模な事前学習済みNS(脳)が、ほんの数例の左データで事前学習された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。

特に大規模な言語モデルは、こうして新しいタスクの事前学習が行われる。しかし、このような新しい例を長時間学習させると、以前の経験を忘れ始め、新しいデータに偏り始める。
 
fxsaber #:

興味深いことに、データ量(引用)という点では、人間の脳は(ニューラルネットワークとして)MOと比較して、人間と比較してインフゾリアのようなものだ。

1,500億のニューロン、しかも1つ1つの出力ではなく、多くの出力がある。AIがそのようなレベルまで成長することは、すぐにはないだろうし、これからもないだろう。
NSは、知能のレベルでゴキブリに例えられる。

 
Maxim Dmitrievsky #:
一発学習。大規模な事前学習済みNS(脳)が、ほんの数例の左データで事前学習された場合。モデルが最初に世界の法則を学習していれば、新しいタスクをざっと見ただけで簡単にクリックする。

ここでは、あなた自身が、左のデータで事前に訓練された脳が、以前は知らなかった特定の問題を解決することを示している。

理由: