記事「機械学習の限界を克服する(第4回):複数ホライズン予測による既約誤差の回避」についてのディスカッション

 

新しい記事「機械学習の限界を克服する(第4回):複数ホライズン予測による既約誤差の回避」はパブリッシュされました:

機械学習は統計学や線形代数の観点から語られることが多いですが、本記事ではモデル予測を幾何学的に理解する視点に注目します。本記事で示したいのは、モデルはターゲットを直接近似しているのではなく、ターゲットを別の座標系に写像することで固有のずれを生み出し、その結果、避けがたい既約誤差が生じる点です。また本記事では、ターゲットとの直接比較ではなく、異なるホライズンにおけるモデルの予測同士を比較する複数ステップ予測の方が実務的かつ有効であることを提案します。この手法を取引モデルに適用すると、基礎モデルを変更することなく、収益性と予測精度が大幅に向上することを確認しました。

関連する自己最適化エキスパートアドバイザーに関する連載では、行列分解による線形回帰モデルの構築方法を紹介し、OpenBLASライブラリを取り上げ、特異値分解(SVD)について解説しました。これらの内容に触れていない読者の方は復習をおすすめします。本記事はその基礎の上に成り立っているためです。こちらがリンクです。

それ以外の読者の方には復習になりますが、SVDは行列をU、S、VTの3つの行列に分解します。それぞれには独自の幾何学的性質があります。UとVTは直交行列で、元データを回転または反転させます。これらはベクトルの長さを保ち、向きだけを変えます。中央のSは対角行列であり、データ値のスケーリングをおこないます。 

これらを組み合わせて理解すると、SVDは回転、スケーリング、そして再び回転という操作を順に施していることになります。線形回帰モデルはこのプロセスによってターゲットの像を入力空間に埋め込んでいるのです。幾何学的な本質を抽出すると、線形回帰がおこなっているのは回転して、スケーリングして、また回転するという操作に尽きます。それ以上でもそれ以下でもありません。幾何学を学ぶことでこの視点が明確になると1つの挑発的な疑問が浮かびます。いったい学習とはどこでおこなわれているのでしょうか。


作者: Gamuchirai Zororo Ndawana