記事「取引におけるニューラルネットワーク:時空間ニューラルネットワーク(STNN)」についてのディスカッション

 

新しい記事「取引におけるニューラルネットワーク:時空間ニューラルネットワーク(STNN)」はパブリッシュされました:

この記事では、時空間変換を活用し、今後の価格変動を効果的に予測する手法について解説します。STNNの数値予測精度を向上させるために、データの重要な側面をより適切に考慮できる連続アテンションメカニズムが提案されています。

この多変量データの複雑性に対処するため、遅延埋め込み定理に基づいた時空間情報(STI)変換方程式が開発されました。STI方程式は、多変量データの空間情報を目標変数の時間的ダイナミクスへと変換します。これにより、実質的にサンプルサイズが増加し、短期間のデータによる制約を軽減することができます。

Transformerベースのモデルは、すでにデータシーケンスの処理に広く用いられており、自己アテンション(Self-Attention)メカニズムを活用して変数間の関係を分析します。この手法では、変数間の相対的な距離を考慮せず、大域的な情報を捉え、最も重要な特徴に焦点を当てることが可能となり、「次元の呪い」を緩和する効果があります。

研究「Spatiotemporal Transformer Neural Network for Time-Series Forecasting」では、多変量短期時系列の効率的な多段階予測を実現するため、時空間Transformerニューラルネットワーク(STNN: Spatiotemporal Transformer Neural Network)が提案されました。このアプローチは、STI方程式とTransformerフレームワークの利点を組み合わせたものです。

著者は、この手法の主な利点として、以下を強調しています。

  1. STNNは、STI方程式を利用して、多変量データの空間情報を目標変数の時間発展へと変換し、サンプルサイズを効果的に増加させる。
  2. 数値予測精度を向上させるために、連続アテンションメカニズムを導入。
  3. STNNの空間的自己アテンション機構は、多変量データから効率的に空間情報を抽出し、一方で時間的自己アテンション機構は時間発展に関する情報を収集。Transformer構造により、これらの空間情報と時間情報を統合する。
  4. STNNモデルは、時系列予測のために力学系の位相空間を再構成できる。

作者: Dmitriy Gizlyk

 
定量的リターンは人間の取引と比較するには小さすぎる