ニューラルネットワーク、どう使いこなすか、何から始めるか? - ページ 11 1...45678910111213141516171819 新しいコメント Леонид 2009.01.15 20:20 #101 Solver.it писал(а)>> お気に入りのニューラルネットワークプログラムのエラー関数を変えてみる... そして、次のような考えを許さないのでしょうか。このプログラムで利益を得るためには、このエラー関数を変更する必要はないのでは? Aleksandr Pak 2009.01.16 01:51 #102 LeoV писал(а)>> そして、次のような考えを許さないのでしょうか。このプログラムで利益を得るためには、このエラー関数を修正する必要はないのでは? あなたのこのご丁寧な発言のおかげで、NSの最高の専門家によるキンスペックに、あなたが最適化の概念を全く持っていないことがわかりました。 そして、あなたは、次のような考えを許さないのです。 ということで、NNの作成と利用を完全に最適化するためのソフトは想定していないのでしょうか? Neutron 2009.01.16 07:32 #103 Korey писал(а)>> あなたのこのご丁寧な発言のおかげで、NSの最高級品から、あなたのキンスペックに最適化の概念がない、ないことがわかりました。 :-) Леонид 2009.01.16 07:48 #104 Korey писал(а)>> 自分の書いたものが理解できたか?))) Neutron 2009.01.16 08:26 #105 NSをどうひねっても、入力に何を与えても、もちろん奇跡は起きないのです つまり、NSは重ねるほど予測力が高まるが、3層以上は無意味であり、3層グリッドはすでに万能近似器である、ということだ。一方、NSというブラックボックスは、市場の準定常的なプロセスを見つけ出し、それを利用するだけである。それ以外に方法はないのです。その通り、準定常であり、全く定常でなく(そのようなプロセスが市場に存在しないだけ)、非定常でもない(そのようなプロセスは原理的に利用することができない)。NSシナプスの数w、入力の次元d、学習サンプルの最適な長さ Pの 最適な関係を導き出すリンクを上に示した(4、5ページのトピック):w^2=P*d したがって、NSが複雑であればあるほど、その学習に用いる学習サンプルの長さを大きくする必要がある。P^3として学習の複雑さが増すだけでなく、データが不足する可能性もありますしかし、最大の罠は予想外のところにある。準定常過程(我々のNSがコチエで検出し、それを利用する過程)は、特徴的な寿命(全く、ゼロとは異なり、ある値よりも小さい)を持っている。大きな学習サンプルでは、選択されたプロセスが変化する確率が高いことは明らかである...。ほらね学習サンプルが短ければ短いほど、市場のセンチメントの変化で台無しになる可能性が低くなります。ここで、「短い学習サンプルの2層NSと、背後に3大学を持つ強大な3層(学習中に、すべてが不要になった)と、どちらが優れているか」という問いに対する答えは、簡単な実験によって与えられるようだ。 そのために、Mathcadで1、2、3の3つのグリッドを投げ、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計を取りました)。その結果は以下の通りです。 1 - p=10% 正しく符号を推測できる (確率=1/2+p). 2 - 15-16% 3 - 12% ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。最大限の予測精度と最小限の学習複雑性(RSのパワー、大きな履歴とその非成長)の観点から、3層NSグリッドは万能ではなく、おそらく我々トレーダーにとって、MTS分析ユニットの最適なオプションは2層グリッドであることがわかります。 Vladimir 2009.01.16 09:15 #106 Neutron писал(а)>> NSをどうひねっても、入力に何を与えても、もちろん奇跡は起きないのです つまり、NSは重ねるほど予測力が高まるが、3層以上は無意味であり、3層グリッドはすでに万能近似器である、ということだ。一方、NSというブラックボックスは、市場の準定常的なプロセスを見つけ出し、それを利用するだけである。それ以外に方法はないのです。その通り、準定常であり、全く定常でなく(そのようなプロセスが市場に存在しないだけ)、非定常でもない(そのようなプロセスは原理的に利用することができない)。NSシナプスの数w、入力の次元d、学習サンプルの最適な長さ Pの 最適な関係を導き出すリンクを上に示した(4、5ページのトピック):w^2=P*d したがって、NSが複雑であればあるほど、その学習に用いる学習サンプルの長さを大きくする必要がある。P^3として学習の複雑さが増すだけでなく、データが不足する可能性もあります準定常過程(我々のNSがコチエで特定し、それを利用する過程)は、特徴的な寿命(全く、ゼロとは異なり、あるものより小さい)を持っているのです。大きな学習サンプルでは、選択されたプロセスが変化する確率が高いことは明らかである...。ほらね学習サンプルが短ければ短いほど、市場のセンチメントの変化で台無しになる可能性が低くなります。ここで、「短い学習サンプルの2層NSと、背後に3大学を持つ強大な3層(学習中に、すべてが不要になった)と、どちらが優れているか」という問いに対する答えは、簡単な実験によって与えられるようだ。 そのために、Mathcadで1、2、3の3つのグリッドを投げ、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計値を集めました)。その結果は以下の通りです。 1 - p=10% 正しく符号を推測できる (確率=1/2+p). 2 - 15-16% 3 - 12% ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。3層のNSグリッドが万能でないことは明らかで、おそらく我々トレーダーにとってMTS分析ユニットの最適な選択肢は、最大の予測精度と最小限の学習複雑性の要件(RSのパワー、大きな履歴とその非成長)の観点から、2層のグリッドなのです。 NSを宝くじの当選番号予想に使ってみた人はいるのかな? Neutron 2009.01.16 09:25 #107 gpwr さん、みんなをバカにしてる!- 宝くじの当選番号を予想することです。そして、私の投稿の引用を削除してください - あなたの投稿にさらにローカリズムを加えることになります :-) Sergey Fionin 2009.01.16 09:28 #108 Neutron писал(а)>> NSシナプスの数w、入力次元d、学習サンプルの最適な長さ Pの 最適な関係(4、5ページ分)の結論へのリンクは既に上にあげたとおりです。 ネットワークサイズ、学習・認識能力は、ネットワークアーキテクチャに強く依存する。 どれを指しているのでしょうか?ワード、再発、VNS、それともMSUAかな? Neutron 2009.01.16 09:30 #109 私たちは、古典的な多層、非線形、単一出力(売り買い)のペルセプトロンについて話しているのです。 TheXpert 2009.01.16 10:02 #110 Neutron >> : NSをどう回しても、その入力に何を入れても、確かに奇跡は起きないのです つまり、NSは階層化すればするほど予測力が高まるが、3層以上の階層を作るのは無意味であり、3層グリッドはすでに万能近似器である、ということだ。 一般的には、いや、論外ですねー、飽きた。 このことから、NSが階層化されればされるほど、その学習にはより長い学習サンプルが必要となる。学習の複雑さはP^3として増大するだけでなく、データを使い果たす可能性もあるのだ! その程度は2回目です。計算してみよう。 例えば、m - n - kというネットワークを例にとると、文字はそれぞれ入力層、隠れ層、出力層のニューロンの数を表している。 信号伝搬の複雑さは、完全に結合したシナプスではO(m*n + n*k)である。 バックプロパゲーションの複雑さも同様である。 ここで、同じ大きさの隠れ層を追加で導入してみましょう。 計算量はO(m*n + n*n + n*k)である。 比率をとってみると -- (m + n + k)/(m + k)となる。 また、隠れ2層目の導入により、1層目のサイズを具体的に小さくすることができます。 そのために、Mathcadで1、2、3の3つのメッシュを作り、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計を取りました)。その結果は以下の通りです。 1 - p=10% 正しく符号を推測できる (確率=1/2+p). 2 - 15-16% 3 - 12% ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。3層のNSグリッドは万能ではなく、おそらく我々トレーダーにとって、MTSの分析ブロックの最適な選択肢は2層グリッドであることがわかります - 最大の予測精度と学習の複雑さ(RSのパワー、大きな履歴とその非成長)の最小要件という観点から。 そろそろフラクタルなNSを考えないといけませんね :)) .2.5ならちょうどいい。 1...45678910111213141516171819 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そして、次のような考えを許さないのでしょうか。このプログラムで利益を得るためには、このエラー関数を修正する必要はないのでは?
あなたのこのご丁寧な発言のおかげで、NSの最高の専門家によるキンスペックに、あなたが最適化の概念を全く持っていないことがわかりました。
そして、あなたは、次のような考えを許さないのです。
ということで、NNの作成と利用を完全に最適化するためのソフトは想定していないのでしょうか?
あなたのこのご丁寧な発言のおかげで、NSの最高級品から、あなたのキンスペックに最適化の概念がない、ないことがわかりました。
:-)
自分の書いたものが理解できたか?)))
NSをどうひねっても、入力に何を与えても、もちろん奇跡は起きないのです
つまり、NSは重ねるほど予測力が高まるが、3層以上は無意味であり、3層グリッドはすでに万能近似器である、ということだ。一方、NSというブラックボックスは、市場の準定常的なプロセスを見つけ出し、それを利用するだけである。それ以外に方法はないのです。その通り、準定常であり、全く定常でなく(そのようなプロセスが市場に存在しないだけ)、非定常でもない(そのようなプロセスは原理的に利用することができない)。NSシナプスの数w、入力の次元d、学習サンプルの最適な長さ Pの 最適な関係を導き出すリンクを上に示した(4、5ページのトピック):w^2=P*d
したがって、NSが複雑であればあるほど、その学習に用いる学習サンプルの長さを大きくする必要がある。P^3として学習の複雑さが増すだけでなく、データが不足する可能性もありますしかし、最大の罠は予想外のところにある。準定常過程(我々のNSがコチエで検出し、それを利用する過程)は、特徴的な寿命(全く、ゼロとは異なり、ある値よりも小さい)を持っている。大きな学習サンプルでは、選択されたプロセスが変化する確率が高いことは明らかである...。ほらね学習サンプルが短ければ短いほど、市場のセンチメントの変化で台無しになる可能性が低くなります。ここで、「短い学習サンプルの2層NSと、背後に3大学を持つ強大な3層(学習中に、すべてが不要になった)と、どちらが優れているか」という問いに対する答えは、簡単な実験によって与えられるようだ。
そのために、Mathcadで1、2、3の3つのグリッドを投げ、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計を取りました)。その結果は以下の通りです。
1 - p=10% 正しく符号を推測できる (確率=1/2+p).
2 - 15-16%
3 - 12%
ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。最大限の予測精度と最小限の学習複雑性(RSのパワー、大きな履歴とその非成長)の観点から、3層NSグリッドは万能ではなく、おそらく我々トレーダーにとって、MTS分析ユニットの最適なオプションは2層グリッドであることがわかります。
NSをどうひねっても、入力に何を与えても、もちろん奇跡は起きないのです
つまり、NSは重ねるほど予測力が高まるが、3層以上は無意味であり、3層グリッドはすでに万能近似器である、ということだ。一方、NSというブラックボックスは、市場の準定常的なプロセスを見つけ出し、それを利用するだけである。それ以外に方法はないのです。その通り、準定常であり、全く定常でなく(そのようなプロセスが市場に存在しないだけ)、非定常でもない(そのようなプロセスは原理的に利用することができない)。NSシナプスの数w、入力の次元d、学習サンプルの最適な長さ Pの 最適な関係を導き出すリンクを上に示した(4、5ページのトピック):w^2=P*d
したがって、NSが複雑であればあるほど、その学習に用いる学習サンプルの長さを大きくする必要がある。P^3として学習の複雑さが増すだけでなく、データが不足する可能性もあります準定常過程(我々のNSがコチエで特定し、それを利用する過程)は、特徴的な寿命(全く、ゼロとは異なり、あるものより小さい)を持っているのです。大きな学習サンプルでは、選択されたプロセスが変化する確率が高いことは明らかである...。ほらね学習サンプルが短ければ短いほど、市場のセンチメントの変化で台無しになる可能性が低くなります。ここで、「短い学習サンプルの2層NSと、背後に3大学を持つ強大な3層(学習中に、すべてが不要になった)と、どちらが優れているか」という問いに対する答えは、簡単な実験によって与えられるようだ。
そのために、Mathcadで1、2、3の3つのグリッドを投げ、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計値を集めました)。その結果は以下の通りです。
1 - p=10% 正しく符号を推測できる (確率=1/2+p).
2 - 15-16%
3 - 12%
ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。3層のNSグリッドが万能でないことは明らかで、おそらく我々トレーダーにとってMTS分析ユニットの最適な選択肢は、最大の予測精度と最小限の学習複雑性の要件(RSのパワー、大きな履歴とその非成長)の観点から、2層のグリッドなのです。
NSを宝くじの当選番号予想に使ってみた人はいるのかな?
gpwr さん、みんなをバカにしてる!- 宝くじの当選番号を予想することです。そして、私の投稿の引用を削除してください - あなたの投稿にさらにローカリズムを加えることになります :-)
NSシナプスの数w、入力次元d、学習サンプルの最適な長さ Pの 最適な関係(4、5ページ分)の結論へのリンクは既に上にあげたとおりです。
NSをどう回しても、その入力に何を入れても、確かに奇跡は起きないのです
つまり、NSは階層化すればするほど予測力が高まるが、3層以上の階層を作るのは無意味であり、3層グリッドはすでに万能近似器である、ということだ。
一般的には、いや、論外ですねー、飽きた。
このことから、NSが階層化されればされるほど、その学習にはより長い学習サンプルが必要となる。学習の複雑さはP^3として増大するだけでなく、データを使い果たす可能性もあるのだ!
その程度は2回目です。計算してみよう。
例えば、m - n - kというネットワークを例にとると、文字はそれぞれ入力層、隠れ層、出力層のニューロンの数を表している。
信号伝搬の複雑さは、完全に結合したシナプスではO(m*n + n*k)である。
バックプロパゲーションの複雑さも同様である。
ここで、同じ大きさの隠れ層を追加で導入してみましょう。
計算量はO(m*n + n*n + n*k)である。
比率をとってみると -- (m + n + k)/(m + k)となる。
また、隠れ2層目の導入により、1層目のサイズを具体的に小さくすることができます。
そのために、Mathcadで1、2、3の3つのメッシュを作り、1カウント先のコチエの増分の符号を予測した結果を比較しました(独立した100回の実験から統計を取りました)。その結果は以下の通りです。
1 - p=10% 正しく符号を推測できる (確率=1/2+p).
2 - 15-16%
3 - 12%
ここでは、入力の次元と層のニューロン数という、いくつかの自由なパラメータがあります。1つ目のパラメータは全アーキテクチャで共通、2つ目は個人的に選択したものです。3層のNSグリッドは万能ではなく、おそらく我々トレーダーにとって、MTSの分析ブロックの最適な選択肢は2層グリッドであることがわかります - 最大の予測精度と学習の複雑さ(RSのパワー、大きな履歴とその非成長)の最小要件という観点から。
そろそろフラクタルなNSを考えないといけませんね :)) .2.5ならちょうどいい。