トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 3304

 

以下は、サイト自体からサポートされているもののリストです。

https://onnx.ai/sklearn-onnx/supported.html

記事中の準備された例に感謝します。

Supported scikit-learn Models#
  • onnx.ai
, # This version of the operator has been available since version 13. Absolute takes one input data (Tensor ) and produces one output data (Tensor ) where absolute value, y = abs(x), is applied to the tensor elementwise. T tensor(uint8), tensor(uint16), tensor(uint32), tensor(uint64), tensor(int8), tensor(int16), tensor(int32), tensor(int64...
 
Petros Shatakhtsyan #:


当時、ブローカーはまだティック値を収集していなかった。私は 自分でやった。実際のティックを収集し、約6ヶ月間ファイルに分割して保存しました。それをテスターに適用したところ、まったく異なる画像が得られました。


今はブローカーはもうティッククォートを収集せず、どこからかティックを取得/供給しています。MTサーバーのアップデートと関係があるかもしれません。

時々、肉眼で見ることができます - ここに新鮮なティックがあり、ここに一般的なでたらめがあります。そして分単位でも

実際のところ、本物のティックのアーカイブは、特定のDCから提供されたもので、非常に高価な商品 だ。(下線部を通しても)

 
Petros Shatakhtsyan #:

あなたが驚いていることに驚いている。

説明できないほど正確なんだ。生成されたものに対してティック・スキャルパーを書き、聖杯を作るのが一つ。もう一つは、あらかじめ設定したSLで決済するスキャルパーではありません。生成されたティックでは、SLはマイナスのスリッページで実行される。しかし、これはまだ聖杯である。
 
Maxim Kuznetsov #:

今は、ブローカーはティック・クォートを 集めず、どこか他のところから取ったり供給したりしている。

時々、肉眼で見ることができます - ここに新鮮なティックがあり、ここに一般的なでたらめがあります。また、分単位でも

実際のところ、実際のダニのアーカイブは、特定のDCから来たもので、非常に高価な商品 である。(下線部を通しても)

あなたは間違っている。各ブローカー自身が実際のティックを収集し、翌日のテスターでは、前日の実際のティックを得ることができます。

そして、フィルタリングされた後、ブローカーによってMT5に送信される、正確にこれらのティック。Every tick based on real ticks」モードで確認するか、コピーしてください。

 

ニューラルネットワークのBP表現を適切に行う方法についての良い論文。FFTはもちろん取り除くことができる。さらに異なるモデルの比較も。

根本的な違いは、前処理がネットワーク・アーキテクチャに組み込まれていることだ。しかし、別々に行うこともできる。

LSTMは期間間の変動を考慮しないため、バックグラウンドで煙に巻かれる。

Boustingも、彼らのテストによれば、ランキングの最下位に近いところにいる。
 
Maxim Dmitrievsky #:

ニューラルネットワークのBP表現を適切に行う方法に関する良い論文。FFTはもちろん取り除くことができる。さらに異なるモデルの比較も。

根本的な違いは、前処理がネットワーク・アーキテクチャに組み込まれていることだ。しかし、別々に行うこともできる。

LSTMは期間間の変動を考慮しないため、バックグラウンドで煙に巻かれる。

Boustingも彼らのテストによれば、ランキングの最下位に近いところにいる。
テキストのレベルはかなり高いが、彼らは多期間性を持つシリーズに科学を適用しており、これらは明らかに価格ではない。もちろん、地元のラジオ・アマチュアは反論するだろうが)。
 
少し前のフォーラムで誰かが効果の名前を与えた(私はまだそれを見つけていない)、そのためSBに近い系列は、周期を持っているように見える。この効果は、フーリエによってプロセスの周期性を "発見 "したときに、科学における多くの恥ずべき瞬間に関連付けられており、フォーラムでそれのためにラジオアマチュアは決して長生きしないでしょう)。
 
多重テストの問題について、どなたか説明してください。
なぜ、最適化の反復回数が増えるほど、オーバートレーニングの確率が高くなるのでしょうか?


いや、検索(反復)をすればするほど、ランダムでないものに似たランダムなものを見つける可能性が高くなることは理解しているのだが......。

しかし、あるアイデアを思いつき、それにパラメータを合わせるのに、10000回ではなく10回繰り返したとしたら、それは未訓練モデルと言えるのでしょうか?

結局のところ、"We came up with "というフレーズ自体も、何らかの思考プロセス(反復)を意味している。


最終的なモデルは、それが頭脳による反復なのか、コンピュータによる反復なのか、そして両者に違いがあるのかをどうやって知るのだろうか?


という疑問がプラドの記事を 読んで浮かんだ。

Pseudo-Mathematics and Financial Charlatanism: The Effects of Backtest Overfitting on Out-of-Sample Performance
  • papers.ssrn.com
We prove that high simulated performance is easily achievable after backtesting a relatively small number of alternative strategy configurations, a practice we
 
Aleksey Nikolayev #:
少し前のフォーラムで誰かが効果の名前を与えた(私はまだそれを見つけていない)、そのためSBに近い系列は、周期を持っているように見える。この効果は、フーリエによってプロセスの周期性を "発見 "したときに、科学における多くの恥ずべき瞬間に関連付けられており、フォーラムでそれのためにラジオアマチュアは決して生き残ることはありません)。

反対を証明するには?

私の意見では、時間と結びついているイベントがあります - 同じニュース。それらを3つのサブサンプル(予想、悪化、改善)に分け、文脈を考慮に入れれば、市場参加者の行動が似ていることに気づくと思う。

もう一つの選択肢は、商品の季節性である。

 
mytarmailS パラメータを合わせるのに、10000回ではなく10回繰り返したとしたら、それは未訓練モデルと言えるのでしょうか?

結局のところ、"We came up with "というフレーズ自体も、何らかの思考プロセス(反復)を意味している。


最終的なモデルは、それが頭脳による反復なのか、コンピュータによる反復なのか、そして両者に違いがあるのかをどうやって知るのだろうか?


という疑問がプラドの記事を 読んで浮かんだ。

過学習は、まれな現象を記憶することから生じる。これらの現象は、原因と結果を記述するモデルが存在しないため、純粋に統計的に分離される。

とはいえ、損失が生じたからといって、そのモデルが過学習であるとは限らない。

理由: