トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 592

 
マキシム・ドミトリエフスキー

そうですね、このテーマについて何が面白いのか、いろいろな記事を調べてみたところです :)まあ、MLPに対する主な利点は、私が理解しているように、速度と最小設定(ここでは全くありません)、そしてこれらのグリッドがほとんど再トレーニングされないということです

まあとガウスのf-forceは、stydentの代わりに使われています。各入力に対して、頂点密度ファイルを作成し、その結果を出力で線形に合計する

ちなみに、PNNとGRNNはmql-formで提供されているが、まだ試していないのでMLPとの比較はしていない

https://www.mql5.com/ru/code/1323

さて、このMKLのトリックについて、やっとこさ構ってあげてください。何千人ものユーザーによってテストされたプロフェッショナルなソフトウェアがあり、それを使用します。イミフ。
 
Yuriy Asaulenko:
さて、ついにこのMKLのトリックに唾を吐く。何千人ものユーザーによってテストされたプロフェッショナルなソフトウェアがあり、それを使用します。イミフ。

私もそう思います。

私がマキシムなら、彼の面白い発見は全部紙に書いて、具体的なグレイルの 排水はビジムとかでやりますね。

 
Alexander_K2 です。

応援しています。

私がマクシムなら、彼の面白い発見はすべて記事にして、具体的なグレイルの排出はウィシムとかで行うかな。

VisSim?- 冗談でしょう、エロイチカ・シチューキナがよく言っていたように)。PythonとRのような、すべてが揃ったソフトウェアが欲しいのです。どちらも大した専門家ではないが、インターネットから判断する。
 
ユーリイ・アサウレンコ
このようなMKLのトリックにはついに見切りをつけましょう。何千人ものユーザーによってテストされたプロフェッショナルなソフトウェアを持って、それを使ってください。イミフ。

私は純粋にTCのために自作しています :) メモリ要素(遅延)、再帰(少し)のようなものまであります :) シンプルです、つまり、どんなグリッドアーキテクチャでも作れます、バックプロップスなどのソルバーを作るのはもっと難しいですが、重みがあまりない場合はオプティマイザで作れます。

これは単なる例であり、バックプロップがどのように実装されているか、またNS

 
マキシム・ドミトリエフスキー

私は純粋にTCのために自作しています :) メモリ要素(遅延)、再帰(少し)のようなものまであります :) シンプルです、つまり、どんなグリッドアーキテクチャでも作れます、バックプロップスなどのソルバーを作るのはもっと難しいですが、重みがあまりない場合はオプティマイザで作れます。

これは単なる例で、バックアップがどのように実装されているかは、コードを見ていただくとして、NS

まあ、イマドキは無線アマチュアである必要はないのですが......時代が違うんです。あなたも私も、プロとしてやることはありません。

友人と一緒に衛星通信システムの修理をしています。しかも、ロシア連邦ではほぼ唯一の存在です。まあ、そんなものは絶対に作れない(というか、製造できない)のですが...。ラジオアマチュアの時代は終わったのだ。

 
ユーリイ・アサウレンコ

まあ、イマドキは無線アマチュアである必要はないんですけどね......時代が違うんです。もう、あなたや私がプロとしてできることではないのです。

友人と私は、衛星通信システムの修理をしています。しかも、ロシア連邦ではほぼ唯一の存在です。まあ、そんなものを作る(つまり製造する)ことはないでしょうが...。ラジオアマチュアの時代は終わったのだ。


今、すべてのものがロボットによって作られています。

私は理解し、私はちょうどいくつかのアイデアを持って、それは創造的な...どのようにそれを正しく行うには、特定のタスクはありません。

 
マキシム・ドミトリエフスキー

今、みんながロボットを作っています。

なるほど、アイデアが少ない、クリエイティブな感じだ

クリエイティビティの話じゃないんです。しかし、それには手芸ではなく、プロ用のソフトを使いましょう。しかし、主張してはいけない。afftor次第です)。
 
ユーリイ・アサウレンコ
クリエイティビティの話じゃないんです。しかし、それには手芸ではなく、プロ用のソフトを使いましょう。しかし、私は主張しない。afftor次第です)。
PythonのPNNへのリンクは上記の通りです。うまくいかなかったのでしょう)。
 
アレクセイ・テレンテフ
上にPythonによるPNNのリンクを貼っておきました。おそらく、届いていないのでしょう)。
了解しました。でも、まだMCLの話をしているんですね。そういうことなんです。DMをやっているとうまくいかないんです。そんなことはないだろう。
 

時間遅れを含む焦点型前方伝搬ネットワーク

構造パターン認識では、静的なニューラルネットワークを 用いるのが一般的である。一方、時間的パターン認識では、時間とともに変化する画像を処理し、ある時点で現在の値だけでなく、過去のいくつかの値にも依存した応答を生成する必要がある。

そんなのあるんですか?:) まさにそのようなアーキテクチャは、理論的にはFXでも機能するのですが...実験してみないとわかりませんね。MLPにいくつかの「面白い」ニューロンを追加したり,2つのモデルを組み合わせたりするだけなので,簡単にできます.

MLPの代わりにPNNをとって、あとは上と下にネジ止めすればいいだけです。


理由: