市場のエチケット、あるいは地雷原でのマナー - ページ 50

 
Prival >> :

どんな例が欲しいかわかっていたら、聞かなかったでしょう。マタデックに簡単なものを。エポックとは何か、などの解説があればなおよい。

以前、教科書で正弦波でネットワークを学習させる例を見たことがあるのですが、そんな感じです。ご迷惑でなければ

これから投稿します。どこから何が出てくるのかが明確になるように、コメントをつけていきます。

完了しました。受信箱で確認してください。


to 中性子

2枚組の真ん中に座っています。途中、いろいろと調べてみたのですが...。

私の単層がなぜこのように機能するのか、つまり、あなたのように機能しないのかがわかったような気がします。

これを見てください。


今となっては失敗と考えるかどうかもわからない(一重の場合) -:)いかがでしょうか?

 
二層はまだ機能していない。何らかの例外が発生したようです...。
 

paralocus さんが 書き込みました(a) >>。

今となっては失敗と考えるかどうかもわからない(一重の場合) -:)なんて言うんだろう。

インデックスから離れろ!

このエラーを手動で補正すればいいのですが、あまりにもショボいのです。だから、すぐにやったほうがいいんです。

もうひとつ。以下は、学習誤差を正しく出力するための式です。

つまり,まず1エポック内の学習サンプル全体の誤差の二乗和を求め,この式を学習ベクトルの散らばりの二乗で割る(正規化する)のです.これは、エポック数や特定のアーキテクチャにリンクされるのを避けるためです。NSトレーニングの成果を比較しやすくなる。その結果、得られた値が<1であればネットワークは学習され、そうでなければ-ゴミ箱に捨てて寝るのが最良の予測であることが判明したのです。

 
なるほど、全エポックのエラーモジュールを蓄積して、エポック長で割っていただけなんですね。現在、二重にしているのは
 

しかし、なぜインデックスを削除しなければならないのかが理解できません。補正の二乗の足し算がおかしいだけだと思うのですが。

つまり、こうでなければならないのです。


どういう意味ですか?

 

to中性子


セレーガ、コンセプトを説明してください。次のカウントで予想される何らかの値(Close, (H+L)/2,bar color, ...)の予測に対してNSに課金するのですか。正しく理解できたか、それとも別のものか?

 
paralocus писал(а)>>

しかし、なぜインデックスを削除しなければならないのかが理解できません。補正の二乗の仕方が悪かっただけだと思うのですが。

なぜインデックスが必要なのか?補正値(その2乗ではなく、符号を含む補正値)を積算すれば、インデックスは不要です。そして、ルートでの二乗和に正規化すれば(これもインデックスなし)、あるエポックでの補正の望ましい値が得られます。

grasn さんが書き込みました >>1

to中性子

セレーガ、概念的に教えてくれ。NSを使って、次の連続したタイムフレームで予想される何らかの値(Close, (H+L)/2, bar color, ...)を予測しますか(つまり、1タイムフレーム先の予測です)。正しく理解できたか、それとも別のものか?

そうですね、一歩先の予測だけして、グリッドを再トレーニングしています。予想される動きの方向性を予測するのであって、その大きさや時間を予測するのではない。

 

しかし、補正は、個人的に各重みに対して蓄積します。つまり、ニューロンに含まれる異なる重みに対して異なる補正となります(そのように説明されたと思いますので、確認させてください)。

このような感じです。


 

そうなんだ!

エポック単位のインデックスとシナプス単位のインデックスを混同していました。あなたの実装はちょっと違うので、お漏らししています。ごめんなさい!

では、質問の意味は何でしょうか?どうしたんですか?

 
エポック毎にカウンターをリセットしているのですね?