記事「ニューラルネットワークが簡単に(第40回):大量のデータでGo-Exploreを使用する」についてのディスカッション

 

新しい記事「ニューラルネットワークが簡単に(第40回):大量のデータでGo-Exploreを使用する」はパブリッシュされました:

この記事では、長い訓練期間に対するGo-Exploreアルゴリズムの使用について説明します。訓練時間が長くなるにつれて、ランダムな行動選択戦略が有益なパスにつながらない可能性があるためです。

Go-Exploreアルゴリズムの訓練期間が長くなるにつれ、ある困難が生じます。その一部を紹介します。

  1. 次元の呪い:訓練期間が長くなるにつれて、エージェントが訪問できる状態の数は指数関数的に増加し、最適な戦略を見つけることが難しくなります。

  2. 環境の変化:訓練期間が長くなるにつれて、エージェントの学習結果に影響を与えるような環境の変化が起こるかもしれません。これによって、以前は成功していた戦略が効果がなくなったり、不可能になることさえあります。

  3. 行動の選択が難しい:訓練期間が長くなるにつれて、エージェントは、情報に基づいた意思決定をおこなうために、タスクのより広い文脈を考慮する必要があるかもしれません。これによって、最適な行動を選択するタスクが複雑になり、アルゴリズムを最適化するために、より複雑な方法が必要となる可能性があります。

  4. 訓練時間の増加:訓練期間が長くなると、十分なデータを集めてモデルを訓練するのに必要な時間も長くなります。これは、エージェントの訓練の効率とスピードを低下させる可能性があります。

訓練期間が長くなると、探索すべき状態空間の次元が大きくなるという問題が生じる可能性があります。これは、可能な状態の数が次元の増加とともに指数関数的に増加する「次元の呪い」問題につながる可能性があり、状態空間の探索を困難にし、アルゴリズムが無関係な状態の探索に多くの時間を費やす原因となります。

学習したモデルの品質と効率を確認するために、訓練サンプルとテストサンプルでテストします。私たちのモデルは、訓練セットには含まれていませんでしたが、訓練セットに直接従った2023年5月の第1週の履歴データから利益を得ることができたことに注意することが重要です。

テストサンプル(2023年5月) テストサンプル(2023年5月)

作者: Dmitriy Gizlyk

 
Faza2は他のEAからUnsupervisedをフォルダに移動しないとコンパイルできません。そのせいか、0.18あたりでエラーが出ます。
 

皆さんこんにちは。どなたかこのニューラルネットワークを訓練できた方はいらっしゃいますか?もしそうなら、どのように行いましたか?

私は、論文の著者と同じ期間(4ヶ月)のフェーズ1のデータを収集しました。約1.2GBのbdファイル(190,000特徴量)を得ました。それからフェーズ2のトレーニングを開始しました。フェーズ2にはデフォルトで100,000回の反復がある。フェーズ2を何度か実行してみた。また、1,000,000回と10,000,000回を設定してみた。これらすべての試行で、フェーズ2が示すエラーは1.6 ...1.8以内に変動し、下がらない。あるいは0.3まで増加する(他のbdファイルを使用した場合)。テスターで)フェーズ3を実行すると、取引は混乱しません。ただ愚かにも取引を開始し、テスト時間が終わるまでそれを保持するだけです。テスターでフェーズ3を最適化 モードで実行してみました。200、500、1000パスしてみました。何の影響もありません。唯一、Expert Advisorが取引を少し早く、または少し遅く開始し、テスト終了まで保持します。しかし、取引そのものをクローズするのではなく、テスターが時間切れでクローズするのです。また、NeuroNet.mqhファイルの#define lr 3.0e-4fパラメータを1.0e-4fまたは2.0e-4fに変更してみましたが、これもうまくいきません。私は何を間違えているのでしょうか?

どのようにトレーニングしているのか、どなたか教えてください。できれば詳しく。

どのようなエラーでフェーズ3に進むのですか?

フェーズ2は何回繰り返しますか?

フェーズ2の誤差が減らない場合はどうしますか?

何回目の反復で何かを変更し始めるのですか?具体的に何を変更するのですか?

フェーズ 3 では、EA は取引を開始するだけで、取引しようとしないのが普通ですか?フェーズ 3 を最適化モードでトレーニングすることに意味はありますか?



 
ビクター、私もあなたと同じことを経験しています。Unsupervisedフォルダを移動せずにフェーズ2を実行できましたか?
 
このEAではコンパイルに問題はない。すべてが正常にコンパイルされている。全記事からアーカイブをダンプして(ファイルを新しいものに置き換えて)トップに並べただけだ。