MTSにおける人工知能の活用 - ページ 21

 
Mak:
IMHOは、ネットワークで蒸し返す価値はないと考えています :)

NSの学習は、実は膨大な数のパラメータ(数百、数千)を持つ関数を最適化することなのです。
この場合、オーバートレーニングにならないようにするにはどうしたらいいのかわからない。
唯一の解決策は、1〜1億サンプルのトレーニングサンプルを取ることです。
しかし、保証はない...。
オーバートレーニング」を「アンダートレーニング」と理解されているのですか? 私には反意語に思えますが =) 明確にお願いします。
 
補間メッシュより分類メッシュの方が良い。
読んだことがないのですが、それぞれの違いを説明してください。できれば、それぞれの動作の例を挙げてください。一般的な用語でかまいません =)
 
Mak:
アレクセイ24

数学者に質問です。

最適化するパラメーターの多変量正規分布を適用するという考え方は、ニューラルネットワークの 原理とイコールなのでしょうか?

わかりやすく説明してください。

というのは、不思議な質問ですね。
質問を説明する。


EXPLAIN

今は、特定のフィッティングパラメーターではなく、システム内の各パラメーターのスペクトルでトレードすることが必要だと考えています。
最も簡単な方法は、複数の同じEAを、異なるパラメータセットで、パラメータスペクトルの異なる範囲に配置することです。
これらのExpert Advisorはそれぞれ保証金の一定割合を割り当てる必要がありますが、1つのExpert Advisorのみを使用して取引する場合(スペクトルなし)、これらすべての保証金の割合の値が等しくなる必要があります。
その後、移動平均に3エキスパート-アドバイザーズは、真ん中と端に運動の初めに、それぞれ3つのポジションを開く場合。

このアイデアを1つのEAでどのようにテストに使うか、まだ決めかねています。

この問題についてPoshに問い合わせたが、まだ回答はない。

多変量正規分布(ガウシアン)とaX+bY+...=Z型のニューラルネットワークのタスクは同じ(トレーディング用)なのですが、私の頭の中では混乱して混乱しているのでしょうか?
 
Aleksey24:
Mak:
アレクセイ24

数学者に質問です。

最適化するパラメーターの多変量正規分布を適用するという考え方は、ニューラルネットワークの原理とイコールなのでしょうか?

わかりやすく説明してください。

というのは、不思議な質問ですね。
質問を説明する。


EXPLAIN

今は、特定のフィッティングパラメーターではなく、システム内の各パラメーターのスペクトルで取引することが必要だと考えています。
最も簡単な方法は、複数の同じEAを、異なるパラメータセットで、パラメータスペクトルの異なる範囲に配置することです。
これらのExpert Advisorはそれぞれ保証金の一定割合を割り当てる必要がありますが、1つのExpert Advisorのみを使用して取引する場合(スペクトルなし)、これらすべての保証金の割合の値が等しくなる必要があります。
その後、移動平均に3エキスパート-アドバイザーズは、真ん中と端に運動の初めに、それぞれ3つのポジションを開く場合。

このアイデアを1つのEAでどのようにテストに使うか、まだ決めかねています。

この問題についてPoshに問い合わせたが、まだ回答はない。

多変量正規分布(ガウシアン)の問題と、aX+bY+...=Z型のニューラルネットワークは同じ(トレーディング用)なのですが、私の頭の中では混乱して混乱しているのでしょうか?
スペクトルで複雑なことを言ってるのか!?私がかつて勉強したANNを題材にした資料を紹介します。
https://ru.wikipedia.org/wiki/%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5_%D1%81%D0%B5%D1%82%D0%B8- wikiに載っていて、大まかな流れは決まっているんです。
http://users.kpi.kharkov.ua/mahotilo/Docs/Diss/diss_ch1_intr.html- ANNの論文があるのですが、その途中には、どこから来たのか、どういうものなのか、図や数式を交えて考察されています。
http://www.robo-planet.ru/library.php?parent_id=324&PHPSESSID=82aafc8cb3c043ecbe043fa11dd50943- これは「人工ニューラルネットワークの基礎」へのリンクです。良いサイトです。ANNのテーマについて、私が書いたものだけでなく、「ツリー」全体が掲載されています。
 
リンクありがとうございます、調べてみます。
しかし、「スペクトル」については、間違っていますね。
もちろん、私はプロフェッサーではありません。しかし、そこには合理的なポイントがあるのです。
 
皆さん、誰も答えてくれませんが、忘却のアルゴリズムを考え抜く必要があるのでしょうか、それとも、結局のところ、ANNの自然な性質なのでしょうか?
 
lucifuge:
皆さん、誰も答えてくれませんが、忘却のアルゴリズムを考え抜く必要があるのでしょうか、それとも、結局のところ、ANNの自然な性質なのでしょうか?

もし、トレーニングを有限の小節数(小節数でない場合もある)に限定すれば、忘れることは自然な流れになるはずです。市場は変化しており、5年前にうまくいったことが、今はうまくいかないかもしれません。しかし、新しい条件はすでに出てきており、教えなければ通り過ぎてしまう。
決めるのは皆さんです。
 
Mathemat:
Mak さん、明らかに何かを誇張していますね。何百倍、何千倍と超えるのではなく、おっしゃる通り、ANN理論では10倍で十分です。そして再トレーニング(フィッティング)の基準は既知であり、テスト領域でのグローバル最小誤差である。

もうひとつは、ネットワーク・アーキテクチャです。補間メッシュより分類メッシュの方が良い。
そうかもしれませんね。私はNSについては懐疑的なんです。
そうですね、統計学では、サンプル数が未知のパラメータの数の10倍であれば、ある程度の結論を導くことができると考えられています。 しかし、その際の誤差は合理的な範囲にとどまるのです。

しかし、NSは本質的に、ある種の入力のベクトルと重みのセットの関数に過ぎないということに同意してください。
この重みのセットには、数百(最も単純な場合)から数万、数十万のパラメータ(重み)が含まれている。
NSの学習は、この何百、何千というパラメータでこの関数を最適化することにほかなりません。
このような場合、どうなるかは誰でも知っている。
だから私は懐疑的なんです.
 
lucifuge:
Mak:
IMHOでは、ネットワークで蒸し焼きにする価値はない :)

NSの学習は、実は膨大な数のパラメータ(数百、数千)を持つ関数を最適化することなのです。
この場合、オーバートレーニングにならないようにするには、どうしたらいいのかわかりません。
唯一の解決策は、1〜1億サンプルのトレーニングサンプルを取ることです。
しかし、保証はない...。
オーバートレーニング」を「アンダートレーニング」と理解されているのですか? 私には反意語に思えますが =) 明確にお願いします。
オーバートレーニングというのは、いわゆるカーブフィッティングのことです。
最適化パラメータが多く、データが少ない場合に発生します。
 
Mak:
lucifuge:
Mak:
IMHOでは、ネットワークで蒸し焼きにする価値はない :)

NSの学習は、実は膨大な数のパラメータ(数百、数千)を持つ関数を最適化することなのです。
この場合、オーバートレーニングにならないようにするには、どうしたらいいのかわかりません。
唯一の解決策は、1〜1億サンプルのトレーニングサンプルを取ることです。
しかし、保証はない...。
つまり、"overtrained "は "undertrained "ということですか? これらは反意語です =)明確に、お願いします。
オーバートレーニングというのは、いわゆるカーブフィッティングのことです。
最適化パラメータが多く、データが少ない場合に発生します。

しかし、これではネットワークの大きさが問題になります。ネットワークが何を保存できるかは、そのサイズとアーキテクチャに依存します。ネットワークが記憶できないようなサンプルを多く設定して学習させると、過学習効果、つまりネットワークが知っていることを認識しなくなることが起こります。
理由: