記事「取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(StockFormer)」についてのディスカッション

 

新しい記事「取引におけるニューラルネットワーク:予測符号化を備えたハイブリッド取引フレームワーク(StockFormer)」はパブリッシュされました:

本記事では、予測符号化と強化学習(RL)アルゴリズムを組み合わせたハイブリッド取引システム「StockFormer」について解説します。本フレームワークは、統合型のDiversified Multi-Head Attention (DMH-Attn)機構を備えた3つのTransformerブランチを使用しています。DMH-Attnは、従来のAttentionモジュールを改良したもので、マルチヘッドのFeed-Forwardブロックを組み込むことにより、異なるサブスペースにわたる多様な時系列パターンを捉えることが可能です。

StockFormerは、金融市場における予測および取引意思決定を強化学習(RL)を用いて実現します。従来の手法の大きな制約は、資産間の動的依存関係や将来のトレンドを効果的にモデル化できない点にあります。これは、特に市場状況が急速かつ予測困難に変化する場合に重要です。StockFormerは、この課題を予測符号化と取引戦略学習という2つの主要ステージで解決します。

最初のステージでは、StockFormerは自己教師あり学習を活用して、ノイズの多い市場データから隠れたパターンを抽出します。これにより、短期・長期のダイナミクスや資産間の依存関係を捉えることが可能になります。抽出された重要な隠れ状態は、次のステップで取引意思決定に活用されます。

金融市場では、複数資産にわたる多様な時間的パターンが存在し、生データから有効な表現を抽出することは困難です。この課題に対応するため、StockFormerは従来型TransformerのマルチヘッドAttentionを改良し、単一のFeedForwardネットワーク(FFN)を複数並列のFFNに置き換えています。パラメータ数を増やさずにこの設計を行うことで、マルチヘッドAttentionの特徴分解能力が強化され、サブスペース間での異種時系列パターンのモデル化精度が向上します。

予測符号化を備えたハイブリッド取引フレームワーク


作者: Dmitriy Gizlyk