記事「取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル(最終回)」についてのディスカッション

 

新しい記事「取引におけるニューラルネットワーク:ウェーブレット変換とマルチタスクアテンションを用いたモデル(最終回)」はパブリッシュされました:

前回の記事では、Multitask-Stockformerフレームワークを検討しました。このフレームワークは、ウェーブレット変換とマルチタスク自己アテンション(Self-Attention)モデルを組み合わせたものです。本記事では、このフレームワークのアルゴリズムをさらに実装し、実際の過去データを用いてその有効性を評価していきます。

テスト中、モデルの学習はEURUSDの2023年全期間の過去データ(H1時間足)でおこなわれました。解析に用いたすべてのインジケーターは、デフォルトパラメータ設定で使用しました。

初期学習フェーズでは、以前の研究で収集したデータセットを使用しました。このデータセットは、進化するActor方策に適応するため定期的に更新されました。 複数回の学習およびデータセット更新サイクルの後、得られたポリシーは、学習セットおよびテストセットの両方で収益性を示しました。

学習済み方策のテストは、2024年1月の過去データでおこなわれ、その他のパラメータは変更しませんでした。結果は以下の通りです。


作者: Dmitriy Gizlyk