スクリプト形式のニューラルネットワーク - ページ 11

 

" 層内のニューロン数の変化 "

レイヤーのニューロン数

1.同じです。

2.異なる。

a) 層から層へと数を増やしていく。

b) ある層から別の層へ減少する。

c) 増加(減少)率?

 
Neutron писал (а)>>

入力数と学習サンプルの大きさ(パターン数)の積は、NS重みの2乗に等しいことが望ましい。

この姿にちょっとビビる。これは正常な動作のための最小限の数値なのか、それとも最適な数値なのか、どちらなのでしょうか?

つまり、入力に20個の値のベクトルを与え、ベクトルの総数が少なくとも50000個あれば、ネットの重みの数はSqrt(20*50000)=1000個以上でなければならないということでしょうか。そうだろ?

 

Andy_Konさんからの質問を少し言い換えたものです。

20-50-10-1や20-40-1など、波動の原理に従って組織化されたネットワークの例を見たことがあります。つまり、途中でネットワークの拡張があるのです。(隠れ層のニューロン数は入力層の数倍)。

私のメッシュをテストした結果、ニューロンの隠れ層が多いほど学習がスムーズに進み、その結果、出力が不鮮明になってしまうという結論に至りました。例えば20-20-1であれば、ネットワークはよりシャープに解を見つけ、出力にシャープな値を出力する。

例えば、入力ニューロンの数に応じて隠れ層のニューロン数が最適になるような理論的・実際的な原理があれば。

ありがとうございます。

 
Andy_Kon писал (а)>>

" 層内のニューロン数の変化 "

レイヤーのニューロン数

1.同じです。

2.異なる。

a) 層から層へと数を増やしていく。

b) ある層から別の層へ減少する。

c) 増加(減少)率?

さて、私は1つの隠れ層で十分であるという定理へのリンクを示しました。

だから、列挙された問題はすべて自然に消えていくのです。もうひとつは、非線形主成分法を用いて入力の次元数を減らすか、競合層を用いたハイブリッドNSを用いるか......です。しかし、その場合、質問も適切でなければならない。

セルゲイエフが 書いた(a)>>。

この姿にちょっとビビッてしまったんです。これは正常な動作のための最小値なのか、最適値なのか、どちらなのでしょうか?

つまり、20個の値のベクトルを取り、ベクトルの総数が少なくとも50000個あれば、重みのネットワーク全体はSqrt(20*50000)=1000個以上含まれなければならないということでしょうか。そうなんですか?

正解です。

この問題が表面的に(分かりやすく)研究されているEzhovとShumskyの著書「Neurocomputing」へのリンクを貼っておきます。

 
Andy_Kon писал (а)>>
ネットワークの次元や「階層化」のパターン数(patters)に対する依存性はどのようなものでしょうか?

1.隠れ層は入力層より少なくとも1要素分大きくなければならず、そうしないと隠れ層の情報が圧縮されてしまい、結果的に全く役に立ちません。

2.調整するパラメーターの数を考慮する。パラメータの数がパターンの数を超えると、過剰に学習されたネットワークになる危険性があります。もっとパターンがあるはずだ。ネットワークが学習している間は、ネットワークのサイズを小さくすることができます。

 
sergeev писал (а)>>

Andy_Konさんからの質問を少し言い換えたものです。

20-50-10-1や20-40-1など、波動の原理に従って組織化されたネットワークの例を見たことがあります。つまり、途中でネットワークの拡張があるのです。(隠れ層のニューロン数は入力層の数倍)。

私のメッシュをテストした結果、ニューロンの隠れ層が多いほど学習がスムーズに進み、その結果、出力が不鮮明になってしまうという結論に至りました。例えば20-20-1であれば、ネットワークはよりシャープに解を見つけ、出力にシャープな値を生成する。

例えば、入力ニューロンの数に応じて隠れ層のニューロン数が最適になるような理論的・実際的な原理があれば。

ありがとうございます。

それよりも、20-21-1

 
TheXpert писал (а)>>

あるいは、20-21-1が良い。

ちなみに、隠れ層ではニューロン数を入力層の倍数にしていないことにも気づきました。>> なぜ?

 
Neutron писал (а)>>

さて、私は隠れ層は1層で十分だという定理へのリンクを示しました。

だから、上記のような問題は自然と消えていく。もうひとつは、非線形主成分法を用いて入力の次元を減らすか、競合層を用いたハイブリッドNSを使うか......ということです。が、その場合、質問は適切でなければならない。

とはいえ、5層のペルセプトロンで解決する問題も多いので、この定理があるからといって、3層のペルセプトロンが万能というわけではありません。


5-6-6-2のネットワークと、5-25-2の3層置き換えと、どちらがいいのでしょうか?このような大きな数値は、適切な非直線性には有効かもしれません。

ところで、XORaの最も収束性の高いアーキテクチャをご存じでしょうか?

0 ----
 \     \
  0 ----0 --->
 /     /
0 ----

4ニューロン・ミドル -- シグモイド

 
sergeev писал (а)>>

ところで、隠れ層のニューロン数が入力層の倍数になっていないことにも気がつきました。>> なぜ?

私の経験では、入力に近いほどよく、20入力の場合は21が最適です。

 
TheXpert писал (а)>>

私の実践では、入力に近ければ近いほどよく、21 - 20入力が最適です。


うーん...この最適なまとめ方はないものか。そして、5プライと3プライのものについては、私も不思議に思っています。理論はどうした?