記事「知っておくべきMQL5ウィザードのテクニック(第10回):型破りなRBM」についてのディスカッション 新しいコメント MetaQuotes 2024.04.26 13:14 新しい記事「知っておくべきMQL5ウィザードのテクニック(第10回):型破りなRBM」はパブリッシュされました: 制限ボルツマンマシン(Restrictive Boltzmann Machine、RBM)は、基本的なレベルでは、次元削減による教師なし分類に長けた2層のニューラルネットワークです。その基本原理を採用し、常識にとらわれない方法で設計し直して訓練すれば有用なシグナルフィルタが得られるかどうかを検証します。 制限ボルツマンマシン(RBM)はニューラルネットワークの一種であり、その構造は非常に単純ですが、データセットに隠された特性や特徴を明らかにすることができるため、特定の業界で尊敬を集めています。これは、より大きな次元の入力データからより小さな次元の重みを学習することによって達成されます。これらの重みはしばしば確率分布と呼ばれます。いつものように、こちら(英語)で詳細を読むことができますが、通常、その構造は以下の画像で説明することができます。 通常、RBMは可視層と隠れ層の2層で構成され、可視層は隠れ層よりも大きくなります(ニューロンが多くなる)(「通常」と言ったのは、transformerに積み重ねるネットワークもあるからです)。可視層のすべてのニューロンは、ポジティブフェーズと呼ばれる間に隠れ層の各ニューロンに接続します。このポジティブフェーズの間、ほとんどのニューラルネットワークで一般的なように、可視層の入力値に接続ニューロンの重み値が乗算され、これらの積の合計がバイアスに加算されて、それぞれの隠れニューロンの値が決定されます。そして、これの逆であるネガティブフェーズがそれに続き、異なるニューロン接続を通して、隠れ層で計算された値から始まる入力データを元の状態に戻すことを目指します。 つまり、RBMはランダムな重みで初期化されることが多いため、初期サイクルでは予想通り、再構成された入力データは初期入力と一致しなくなります。つまり、再構築された出力を入力データに近づけるために重みを調整する必要があるということです。これは各サイクルに続く追加のフェーズとなります。このポジティブフェーズ、ネガティブフェーズ、重み調整のサイクルの最終結果と目的は、入力データに適用したときに、隠れ層の「直感的な」ニューロン値を与えることができる接続ニューロンの重みに到達することです。隠れ層のこれらのニューロン値は、隠れニューロン全体の入力データの確率分布と呼ばれるものです。 作者: Stephen Njuki 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
新しい記事「知っておくべきMQL5ウィザードのテクニック(第10回):型破りなRBM」はパブリッシュされました:
制限ボルツマンマシン(Restrictive Boltzmann Machine、RBM)は、基本的なレベルでは、次元削減による教師なし分類に長けた2層のニューラルネットワークです。その基本原理を採用し、常識にとらわれない方法で設計し直して訓練すれば有用なシグナルフィルタが得られるかどうかを検証します。
制限ボルツマンマシン(RBM)はニューラルネットワークの一種であり、その構造は非常に単純ですが、データセットに隠された特性や特徴を明らかにすることができるため、特定の業界で尊敬を集めています。これは、より大きな次元の入力データからより小さな次元の重みを学習することによって達成されます。これらの重みはしばしば確率分布と呼ばれます。いつものように、こちら(英語)で詳細を読むことができますが、通常、その構造は以下の画像で説明することができます。
通常、RBMは可視層と隠れ層の2層で構成され、可視層は隠れ層よりも大きくなります(ニューロンが多くなる)(「通常」と言ったのは、transformerに積み重ねるネットワークもあるからです)。可視層のすべてのニューロンは、ポジティブフェーズと呼ばれる間に隠れ層の各ニューロンに接続します。このポジティブフェーズの間、ほとんどのニューラルネットワークで一般的なように、可視層の入力値に接続ニューロンの重み値が乗算され、これらの積の合計がバイアスに加算されて、それぞれの隠れニューロンの値が決定されます。そして、これの逆であるネガティブフェーズがそれに続き、異なるニューロン接続を通して、隠れ層で計算された値から始まる入力データを元の状態に戻すことを目指します。
つまり、RBMはランダムな重みで初期化されることが多いため、初期サイクルでは予想通り、再構成された入力データは初期入力と一致しなくなります。つまり、再構築された出力を入力データに近づけるために重みを調整する必要があるということです。これは各サイクルに続く追加のフェーズとなります。このポジティブフェーズ、ネガティブフェーズ、重み調整のサイクルの最終結果と目的は、入力データに適用したときに、隠れ層の「直感的な」ニューロン値を与えることができる接続ニューロンの重みに到達することです。隠れ層のこれらのニューロン値は、隠れニューロン全体の入力データの確率分布と呼ばれるものです。
作者: Stephen Njuki