記事「知っておくべきMQL5ウィザードのテクニック(第34回):非従来型RBMによる価格の埋め込み」についてのディスカッション 新しいコメント MetaQuotes 2024.10.30 08:34 新しい記事「知っておくべきMQL5ウィザードのテクニック(第34回):非従来型RBMによる価格の埋め込み」はパブリッシュされました: 制限ボルツマンマシンは、1980年代半ば、計算資源が非常に高価だった時代に開発されたニューラルネットワークの一種です。当初は、入力された訓練データセットの次元を削減し、隠れた確率や特性を捉えるために、ギブスサンプリングとコントラストダイバージェンス(Contrastive Divergence)に依存していました。RBMが予測用の多層パーセプトロンに価格を「埋め込む」場合、バックプロパゲーションがどのように同様の性能を発揮できるかを検証します。 価格の埋め込みは、この記事の文脈では、単語の埋め込みと非常に似たプロセスとして使用されています。ご存知の読者もいるかもしれませんが、これは大規模言語モデルのTransformerネットワークにおける前提ステップです。単語の埋め込みは、アテンションと組み合わせることで、単語のナンバーフィケーションとして定義でき、オンラインで利用可能な多くの文章をニューラルネットワークが理解できる形式に変換するのに役立ちます。同様に、私たちはデフォルトで、証券価格データは(たとえ数値であっても)ニューラルネットワークが簡単に「理解」できるものではないと仮定しています。このアプローチから得られる洞察を基に、バックプロパゲーションで学習させたRBMを使うことで、価格データをより理解しやすくする方法を模索しています。 さて、単語から数字への変換は、単に単語や文字に数字を割り当てることではなく、前述のように自己注意を伴う複雑なプロセスです。これに基づき、RBMの2分割グラフの設計を考慮すると、RBMとの類似性を見出すことができると考えています。 RBMの1つの層内には、ニューロン同士の直接的な結合は存在しませんが、入力データの自己注意成分を捉えるために重要なこれらの結合は、隠れ層を通じておこなわれます。この記事では、隠れ層が各ニューロンの変換だけでなく、他のニューロンとの関係がどのような意味を持つかも記録します。 いつものように、トレーダーにとっては「論より証拠」であり、この価格埋め込みの利点は取引結果によってのみ証明されるものです。そして、私たちはこのプロセスの初期段階に到達していますが、単語から数字への埋め込みで得られる報酬の規模は、数字から数字への埋め込みで見られるものと比較できないことを強調する価値があるかもしれません。これは、ここで行っていることがそれほど変革的ではないからです。それでは、バックプロパゲーションを使ってRBMを再構成する方法を考えてみましょう。 作者: Stephen Njuki 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
新しい記事「知っておくべきMQL5ウィザードのテクニック(第34回):非従来型RBMによる価格の埋め込み」はパブリッシュされました:
制限ボルツマンマシンは、1980年代半ば、計算資源が非常に高価だった時代に開発されたニューラルネットワークの一種です。当初は、入力された訓練データセットの次元を削減し、隠れた確率や特性を捉えるために、ギブスサンプリングとコントラストダイバージェンス(Contrastive Divergence)に依存していました。RBMが予測用の多層パーセプトロンに価格を「埋め込む」場合、バックプロパゲーションがどのように同様の性能を発揮できるかを検証します。
価格の埋め込みは、この記事の文脈では、単語の埋め込みと非常に似たプロセスとして使用されています。ご存知の読者もいるかもしれませんが、これは大規模言語モデルのTransformerネットワークにおける前提ステップです。単語の埋め込みは、アテンションと組み合わせることで、単語のナンバーフィケーションとして定義でき、オンラインで利用可能な多くの文章をニューラルネットワークが理解できる形式に変換するのに役立ちます。同様に、私たちはデフォルトで、証券価格データは(たとえ数値であっても)ニューラルネットワークが簡単に「理解」できるものではないと仮定しています。このアプローチから得られる洞察を基に、バックプロパゲーションで学習させたRBMを使うことで、価格データをより理解しやすくする方法を模索しています。
さて、単語から数字への変換は、単に単語や文字に数字を割り当てることではなく、前述のように自己注意を伴う複雑なプロセスです。これに基づき、RBMの2分割グラフの設計を考慮すると、RBMとの類似性を見出すことができると考えています。
RBMの1つの層内には、ニューロン同士の直接的な結合は存在しませんが、入力データの自己注意成分を捉えるために重要なこれらの結合は、隠れ層を通じておこなわれます。この記事では、隠れ層が各ニューロンの変換だけでなく、他のニューロンとの関係がどのような意味を持つかも記録します。
いつものように、トレーダーにとっては「論より証拠」であり、この価格埋め込みの利点は取引結果によってのみ証明されるものです。そして、私たちはこのプロセスの初期段階に到達していますが、単語から数字への埋め込みで得られる報酬の規模は、数字から数字への埋め込みで見られるものと比較できないことを強調する価値があるかもしれません。これは、ここで行っていることがそれほど変革的ではないからです。それでは、バックプロパゲーションを使ってRBMを再構成する方法を考えてみましょう。
作者: Stephen Njuki