トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 2842

 
Aleksey Nikolayev #:

実際、あなたは最適化も行っている。あなたは「特徴の定常性」という基準を作り出し、それに従って最適な特徴を選んでいる。これは歴史上同じ最適化ですが、プロファイルでは同じです。

TSのロバスト性という基準を発明して、それに従って最適化すべきです。)

公差という点では素晴らしい。

店に行ってズボンを選び、自分の体型に合わせて最適化する!

ここで私たちが話しているのは、モデルで利用可能な最適化アルゴリズムの改良という、まったく別のことだ。私は、すでに組み込まれている最適化アルゴリズムの改良に異議を唱えている。テスターにはアルゴリズムがあります。このアルゴリズムを洗練させても、消耗したTSから有益なTSを得ることはできない。モデルに組み込まれたアルゴリズムについても同様です。

また、モデルのパラメータを最適化する際には細心の注意が必要です。

最適化とモデルのオーバートレーニングの間には間違いなく関係がある。モデルは常にかなり "粗い "ままにしておくべきで、確かに大域的最適値は必要ない。


私が予測変数の許容可能なリストを探しているとき、それはズボン的な意味での最適化です。しかし、その意味は全く異なる。「ゴミを入れ、ゴミを出す」ことを避けようとすることである。ここには、大域的最適を見つける「正しい」アルゴリズムを見つけようとすることとは質的な違いがある。どのような大域的最適値も、ゴミに対して有益なTSを与えることはない。

 

マキシム・ウラジーミロヴィチ、量子クラスタリングについてどう思う?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

私たちのフォーラムでは、明らかな理由から「最適化」という言葉は評判が悪い。そのため、私たちが何とかしてこの言葉から遠ざかり、この言葉自体も使いたくないと思うのはよく理解できる。とはいえ、MOモデルのトレーニングはほとんど常に最適化である。

誰かを傷つけたいわけでも、人生について教えたいわけでも、ビジネスのやり方を説明したいわけでもありません。


舌の根も乾かぬうちに...。最適化」というコンセプトに対して、実に否定的な態度がある。
モデル(TS)が第一であり、最適化は第二であることを常に忘れてはならない。
しかし、そのようなシステムであっても、最終的にはより高い取引結果をもたらす最適なパラメータが存在する。 つまり、最適化はその定義上、モデルを悪化させることはできない。
トレーディング・システムを構築する場合、まずモデルが重要であり、次にその評価基準が重要である。
最適化は邪道だと言う人がいるとすれば、それはその人が順序を間違えているということだ。
以上のことを理解して初めて、どのような形であれ、最適化なしにMOを達成することは不可能であるという理解に至ることができる。
テスターとオプティマイザーのバンドルは、ユーザーがクソみたいなものを作り、最適化した後にこのクソみたいなものが利益を生むと考えるという事実によって悪評を得ている。
以上のことをまとめると、最適化アルゴリズムは成功者をさらに成功させ(これは人間のあらゆる活動分野に当てはまる)、残念ながら不幸な人をさらに不幸にする、という結論になる。
車の一般的な特性は同じだが、チューニングによって、たとえば加速カーブで車を調整することができる。- そうでなければ負けるし、お腹をすかせた子供たちや怒った妻など、失敗の喜びを味わうことになる。

つまり、成功に必要な順序は、車(TC)-チューニング基準(TCの評価基準)-最適化ということになる。
これ以外の正しい順序は原理的にありえない。
 
多くの人が思っているように、最適化アルゴリズムとは第一に探索アルゴリズムであり、MASKパラメーターを探索するためだけに使われるものではないことも付け加えておきたい。
もっと複雑でつまらないこともできる。
 
Andrey Dik #:

つまり、最適化は定義上、モデルを劣化させる ことはできない。

これは自動制御システムでは正しいが、非定常過程を持つ金融市場で運用されるモデルでは絶対に正しくない。 オーバートレーニング」と呼ばれる絶対悪が存在する。これは(入力のゴミに次ぐ)主な悪であり、どんなモデルも完全に操作不能にしてしまう。良いモデルは常に、現実を粗くしたような準最適なものでなければならない。私は、モデルのオーバートレーニングに特別な貢献をしているのは、大域的最適解だと考えている。

 
もう一つの重要なポイント。
パラメータが少なければ少ないほど、モデルは次の連鎖の中でうまく機能する。
モデル-基準-最適化、
自由度が増えることは悪いことであり、逆に基準や基準のパラメーターの数を増やすことは、モデルの自由度を減らし、一種の「境界」として機能する。
AOのパラメーターの数については、チューニングの可能性が多いことがデメリットであり、AOの実用的な応用を複雑にしていることを指しています。しかし、自分のやっていることを理解している研究者の巧みな手にかかれば、最適化の質とスピードにおいてさらなる利点を得ることができます。
 
СанСаныч Фоменко #:

自動制御システムにとっては正しい考えだが、定常過程ではない金融市場で運用されるモデルにとっては絶対に正しくない。 オーバートレーニング」と呼ばれる絶対悪が存在する。これは(入力のゴミに次ぐ)主な悪であり、どんなモデルも完全に操作不能にしてしまう。良いモデルは常に、現実を粗くしたような準最適なものであるべきです。モデルのオーバートレーニングに特別な貢献をするのは、大域的最適解だと私は思う。


オーバートレーニングは最適化の誤用によるものではなく、モデル評価基準の誤った選択によるものである。
モデルが少し訓練不足であるべきだというのは、訓練不足の兵士や外科医と同じくらい間違っている。
非定常性を責めることも、最適化を持ち込むことも間違っている。それは、研究者が非定常系列に対して良いモデルを持っていないことを意味する。
 
読者に厳しい現実を突きつけ、気分を害された方がいたらお詫びする。
 

異なる文脈を持つ概念が使われているようだ。

例えば、"プラトー "は、モデルのロジックに影響を与える外的要因を得る方法の設定の幅が広い。例えば、予測子が作られる基礎となるマシュカの効率の広い範囲である。

ここで議論するMOアルゴリズムによる最適化は、決定ロジックを構築することに関係するが、戦略テスターにおける最適化は、通常、入力データのチューニングに関係する。

この2つのタイプの最適化は異なっており、一方は空間を変え、もう一方は空間内の関係を変える。

符号や予測子を調整するのか、それともモデルを探してから最終的なオプティマイザで最適設定を探すのか。しかし、入力データが多い場合、設定を探すのは非常に難しい。

トレーニング中にスペースとロジックを一度に変更することは可能でしょうか?

SanSanych Fomenko サンプリングに期待しますか?

 
Andrey Dik #:

オーバートレーニングは最適化の誤用の結果ではなく、モデル評価基準の間違った選択の結果である。
モデルが少し訓練不足であるべきだというのは、訓練不足の兵士や外科医と同じくらい間違っている。兵士や外科医、あるいは彼らの教師のどちらかを責めるべきで、学習(改善、最適化)の可能性そのものを責めるべきではない。
非定常性を責めることも、最適化を持ち込むことも間違っている。それは、研究者が非定常系列に対して良いモデルを持っていないことを意味する。

なるほど。あなたは機械学習モデルを表面的に知っている。

連鎖の最初の要素は前処理で、労力の50%から70%を費やします。ここで将来の成功が決まる。

連鎖の2番目の要素は、訓練セットに対するモデルの訓練である。

連鎖の3番目の要素は、テストセット上での学習済みモデルの実行である。これらのセットでのモデルの性能が少なくとも3分の1違えば、モデルは再トレーニングされる。このようなことは、頻繁ではないにせよ、たまに起こります。過剰訓練モデルとは、正確すぎるモデルのことである。すみません、基本的なことです。

理由: