しかし上記の中でも、最初の段階は最も時間がかかり、創造性が高く、最も重要である。そして、それをµl上で実現することは不可能である。私たちはプリミティブ・スケーリングを前処理とは考えていない。そして、「Garbage in - rubbish out(ゴミを入れればゴミは出ていく)」という民間の知恵がある。MCLだけでMOをフル活用するためには、MCLで追加開発・実装すべきことが多すぎる。特に、MOは常に拡大し続けているのだから。
Bill M ストラテジーテスターでは 全く異なる結果になってしまいました。これらのアルゴリズムにはランダムな特性があることは理解していますが、それでもこの違いには驚いています。また、モデル構築のために、少なくともトレーニングデータとテストデータが同じになるように、同じ期間を利用するように注意しました。しかし、結果はまったく違った。
onyx libに問題があるようです。
onyxのインストール中にエラーが発生しました。
ERROR:onyxの要件を満たすバージョンが見つかりませんでした:0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ERROR: onyxに一致するディストリビューションが見つかりません。
次にt2fonnxを実行すると
import onyx
オニキスリブに問題があるようです。
onyxのインストール中にエラーが発生しました。
ERROR:onyxの要件を満たすバージョンが見つかりませんでした:0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ERROR: onyxに一致するディストリビューションは見つかりませんでした。
次にt2fonnxを実行すると
import onyx
こんにちは。MLモデルを構築し、EAに組み込む方法についての素晴らしいウォークスルーです!
あなたの結果を再現しようとしましたが、いくつか問題があります。その理由を理解する手助けをしていただければと思います。
記事には注意深く従いましたが、ストラテジーテスターでは 全く異なる結果になってしまいました。これらのアルゴリズムにはランダムな特性があることは理解していますが、それでもこの違いには驚いています。また、モデル構築のために、少なくともトレーニングデータとテストデータが同じになるように、同じ期間を利用するように注意しました。しかし、結果はまったく異なるものでした。
可能性のある原因を特定しようとしましたが、最も興味深い違いはモデル構築中に始まったと思います。私の損失関数は、テスト/検証データ上のパフォーマンスを見ると、あなたがはるかに優れた一般化を達成したことを示唆しています。このメッセージの末尾に記載しました。
この原因として考えられることはありますか?このモデルは非常に壊れやすいので、これは予想外ではないのでしょうか?
私の最も最近の再現の努力は、あなたの最終的なPythonコードを単にコピーペーストし、損失グラフを生成するためにいくつかのMatplotlibコールを挿入することでしたが、基本的に同じ結果でした。どうすればあなたの結果を再現できるでしょうか?
ありがとうございました。
μlのONNXモデルを使用することで、実装の問題は解決する。ただし、すべてのモデルではなく、かなり簡単ではない。
モデルのトレーニングと最適化は、Pythonの別プロセスで解決される。
しかし上記の中でも、最初の段階は最も時間がかかり、創造性が高く、最も重要である。そして、それをµl上で実現することは不可能である。私たちはプリミティブ・スケーリングを前処理とは考えていない。そして、「Garbage in - rubbish out(ゴミを入れればゴミは出ていく)」という民間の知恵がある。MCLだけでMOをフル活用するためには、MCLで追加開発・実装すべきことが多すぎる。特に、MOは常に拡大し続けているのだから。
したがって、プリプロセスを実行するには、他の言語(R/Python/Juliaなどをマスターした人)で作るか、ONNXへの変換を試みる。
これまでのところ、ONNXを導入するメリットは、ONNXモデルの変換、作成、単純化、最適化の方法を学ぶことにしかない。将来的には役に立つかもしれない。
これ以上うまく言うことはないだろう。すべてが的確で要領を得ている
前処理をMTに転送するのは問題ない。MTのテスターでシステムをテストしたいのだが、python/Rでは自作のテスターを書く必要があり、エラーが多い。
Rとpythonでテストされたテスターはすでにたくさんある。
しかし、前処理を転送することは問題であり、前処理は些細なスケーリングや確率計算ではない。可能性のある原因を特定しようとしましたが、最も興味深い違いはモデル構築中に始まったと思います。私の損失関数は、テスト/検証データ上のパフォーマンスを見ると、あなたがはるかに優れた一般化を達成したことを示唆しています。このメッセージの最後にその関数を載せておきます。
この原因として考えられることはありますか?このモデルは非常に壊れやすいので、これは予期せぬことではないのでしょうか?
私の最も最近の再現の努力は、あなたの最終的なPythonコードを単にコピーペーストし、損失グラフを生成するためにいくつかのMatplotlibコールを挿入することでしたが、基本的に同じ結果でした。どうすればあなたの結果を再現できるでしょうか?
ありがとうございました。
ここでも同じ問題に直面しています。
誰か助けてください。
ここでも同じ問題に直面している。
誰か助けてくれませんか?
私が直面している問題(おそらく他の人も)の調査を続け、私の発見を更新します。
まず最初に、この詳細な記事をシェアしてくれたMetaQuotes(著者)に感謝します。私のML取引の探求において、大変勉強になります。
記事にあるオリジナルのonnxファイルを 私のMetaQuates-Demoアカウントで実行すると、同じ結果を再現することができました。しかし、添付のONNX.eurusd.H1.120.Training.pyでonnxモデルを再トレーニングしました:
モデル(onnx attached: )のスコア:
そして1Jan2023-26Mar2023のバックテスト結果が添付されています:"バックテスト結果.png"
添付のONNX.eurusd.H1.120.Training.pyを以下のように再トレーニングしました:
モデル(onnx attached:)のスコア:
そして1Jan2023-26Mar2023のバクトテスト結果を添付する:"バクトテスト結果2.png"
つまり、上記の演習から、論文から最終的な結果を 生成するために使用されたモデルは、以下の日付では学習しない可能性が高いのではないでしょうか?
。