記事"Neural Networks: From Theory to Practice"についてのディスカッション - ページ 3

 

marketeer:

イェデルキン つまり、本格的なニューロアドバイザー(自己学習型)のためには、「標準的な遺伝的最適化アルゴリズム」をプログラムコードに組み込む必要があるということですか?

いや、もちろんそんなことはない!なぜなら、それはすでにオプティマイザーに組み込まれているからだ。それ自体がグリッドの重みを最適化するのです。
それでは理解できない。もし「標準的な遺伝的最適化アルゴリズム」がオプティマイザーに組み込まれているのなら、自己学習型ニューラル・アドバイザーはどうやってこの「外部」アルゴリズムを自己学習の目的に使うことができるのでしょうか?
 
Yedelkin:
それなら理解できない。もし "社内の遺伝的最適化アルゴリズム "がオプティマイザーに挿入されているのであれば、自己学習するニューロアドバイザーは、どうやってこの "社外の "アルゴリズムを自己学習の目的に使うことができるのだろうか?
相互作用の方向は逆である。通常のExpert Advisorに例えると、入力パラメーターによってEA(どのEAでも)の「ブラックボックス」を引っ張るオプティマイザーがあります。Expert Advisorにニューラルネットワークがあっても、それが「ブラックボックス」でなくなることはありません。最適化されたパラメーターは、グリッドの重みの束だけです。
 
Yedelkin:
それでは意味がわからない。もし「社内の遺伝的最適化アルゴリズム」がオプティマイザーに挿入されているのであれば、自己学習型ニューラルネットワークは、どうやってこの「社外の」アルゴリズムを自己学習の目的に使用できるのでしょうか?

ニューラルネットワークは 単純化すると、f[x1,x2,...,xn][w1,w2,...,wn]という形の関数であり、xは入力情報(市場の状況によって変化する)、wはネットワークの重みであり、テスターでの最適化によって選択される固定係数(この記事の文脈では入力パラメータ)である。

したがって、オンライン・モードでネットワークを訓練する必要がある場合、標準的なオプティマイザーを使用することはできず、何らかの最適化アルゴリズム(Expert Advisorに組み込まれている必要があります)を使用する必要があります。

 
marketeer:
相互作用の方向は逆である。通常のExpert Advisorに例えると、Expert Advisorの「ブラックボックス」の入力パラメータを引き出すオプティマイザーが存在する(任意)。エキスパート・アドバイザーにニューラルネットワークがあっても、それが「ブラックボックス」でなくなることはない。最適化されたパラメーターだけが、グリッドの重みの束となる。
もしそうであれば、ニューロアドバイザーの自己トレーニングは 存在しないことになる。 そして、トレーニングはパラメータの通常のフィッティングと呼ばれる。
 
joo そのため、オンラインでネットワークを訓練する必要がある場合は、標準のオプティマイザーを使用することはできず、何らかの最適化アルゴリズム(Expert Advisorに組み込まれる)を使用する必要があります。
はい、これが私が明確にしたかった点です。この場合のみ、ニューロアドバイザーは自己学習型と 呼ぶことができるのです。
 
yu-sha: http://lancet.mit.edu/ga/- マサチューセッツ工科大学
皆さん、ありがとうございます!大まかな方向性は見えてきました。
 


yu-sha: http://lancet.mit.edu/ga/ - Massachusetts Institute of Technology

イェデルキン

みなさん、ありがとうございます!方向性はだいたいわかりました。
MQL5に必要なツールはすべて、ここ、ネイティブフォーラムにすでにあります。
 
joo: MQL5に必要なツールはすべて、ここ、ネイティブフォーラムですでに入手可能だ。
それは確かだ)ただ、基本的なトリックを理解する必要があったんだ。
 
Yedelkin:
もしそうなら、ニューロアドバイザーの自己トレーニングは 存在しないことになる。 そして、トレーニングはパラメータの通常のフィッティングということになる。
あなたは、自己トレーニングが通常のフィッティングであると素朴に信じているのですか?
 

Reshetov:
А Вы наивно полагаете, что самообучение - это необычная подгонка?

ネットワーク学習=フィッティング

自己学習=自己適合