市場のエチケット、あるいは地雷原でのマナー - ページ 30

 
FION >> :

あなたのコードでは - if(NormalizeDouble(SquarHid[i,j],4) != 0.0), 比較がうまくいきません。

ありがとうございます。しかし、私のコードにも「ゼロによる除算」のエラーはありません。

 
Neutron >> :

セルゲイさん、こんにちは。

しかし、Grasnは、14thバージョンは破損しており、エンジンは死んでいて、差分にはエラーがあると言っています。をメインに使用することができます。Matkadの配布キットは100ルーブルです。

まさに "スクラッチ "ですね。私が言いたかったのは、14ではエンジンが安く、どちらのエンジンが優れているかという古い議論に帰結するということですウォータールー メープル対 サイフェイス ソフトウェア です。現実には、良くなるものもあれば悪くなるものもあり、自分に必要なものを見極める必要があります。例えば、3つの惑星の動きについて、こんな古典的な問題があります。ある初期条件下で、一方の惑星が他方の惑星の軌道を捕らえる。


以下は、13 Mathcadetでの解答です(キャプチャ)。


14 matcadetでの解答はこちら(ねじ込み式)。



でも、バージョン14には、たくさんの利点があります。Vistaでは13がクラッシュするだけなので、乗り換えることになりそうです。しかし、13でも十分なバグがあるのだから、旧バージョンをどうこう言うのはどうかと思う。

 

セルゲイさん、こんにちは。

いい質問ですね。美しいですね。数値計算の方法の精度の問題かもしれませんね。より高い精度を得れば、解は収束する...。

 
Neutron、この調整係数 (1 - J/N)を入力する場合、すべての重みに使うべきなのか、それとも、例えば隠れ層の重みに使って、出力ニューロンの重みには使わなくてもいいのか?今は隠れ層の重みにしか使っていません。ウェイトが±50とほぼ安定してきた。エポック数をNとして使って います。
 
Neutron писал(а)>>

セルゲイさん、こんにちは。

いい質問ですね。美しいですね。数値計算の方法の精度の問題かもしれませんね。精度を高くして解が収束すると・・・。

いや、精度の問題じゃないんです。

 
paralocus писал(а)>>
Neutronさん、この調整係数 (1 - J/N)を入力する場合、すべてのスケールに使うべきなのか、それとも例えば隠れ層のスケールに使って、出力ニューロンのスケールには使わなくていいのでしょうか?今は隠れ層の重みにしか使っていません。ウェイトが±50とほぼ安定してきた。エポック数をNとして使って います。

こうしてみたり、ああしてみたり。私は例外なく、すべての体重計に適用しています。しかし、これは私があらゆるものをシンプルにしたい、同一性を求めたいからなのです。もしかしたら、うまくいくかもしれませんよ。Nは エラの数です。

 

ひとつだけ戸惑うことがあります。

このシステムにおける補正は、必要であろうとなかろうと、常に行われます。2値化された入力グリッドでは、この点がよりいっそう淀んでしまう。

つまり、符号の推測が正しくても、グリッドの出力とテスト信号の振幅に差があれば、とにかく補正が行われるのだ。しかし、それは本当に必要なことなのでしょうか?

結局、この場合のグリッドは、間違いではないのですが...。

 
Neutron >> :

...でも、それは私があらゆるものをシンプルにするのが好きなこと、同質性のステマに関係しているんです......。

支店ではなく、マスタークラス!役に立つものをたくさんありがとうございましたOROはやってませんが、トレーニングの勧めはPNNでも効果的です。いつもありがとうございます:ThanksNeutron!

 

rsi さん、ありがとうございます。いつでも知識を共有することができます。

paralocus писал(а)>>

ひとつだけ戸惑うことがあります。

このシステムにおける補正は、必要であろうとなかろうと、常に行われます。2値入力のグリッドには、よりいっそうの停滞をもたらします。

つまり、符号が正しく推測されても、グリッド出力とテスト信号の振幅に差があれば、いずれにせよ補正は行われる。しかし、それは本当に必要なことなのでしょうか?

結局、この場合のグリッドは、間違いではないのですが...。

私も同じような挙動です。

そして、それは正しい。なぜなら、グリッドは、符号だけでなく、予測の精度を常に研ぎ澄ますからだ...

 

Neurton さん、こんにちは。とにかく、まだ二重には縁がない。

OROで単層パーセプトロンを書いて、昨日一日中動かしていました。挙動がおかしいんです。学習したりしなかったり、エポック数に破滅的に依存する。

というわけで、私の結果は以下の通りです。8エポック-グリッドは学習しない、12エポック-グリッドは学習する、13エポック-グリッドは学習しない。

要するに、まだできないことを自慢している結果です。

いずれにせよ、私が実装したアルゴリズムについて説明します。見落としがないか確認する。


1.パーセプトロンはD個の 2値入力を持ち、そのうちの1つは定数+1である。

2.使用するBPは、Openの 回数に応じたCotierのインクリメントを順次行うものです。

3.すべての重みは、開始前に+/-1の範囲から小さなランダムな値で初期化されます。

4.学習ベクトルの長さは、P = 4 *D*D/D = 4*D として計算されます。

5.ここで,Test はn+1 番 目,つまり次の読み出し時の BP の値,OUTn 番目の 読み出し時のグリッド出力である.

6.入力Q での誤差の値は、グリッド誤差Qs にスクイーズ関数の微分値(1 - OUT+OUT)を乗じることで、Q = Qs *(1 - OUT*OUT)...となる。

7.ニューロンに入る各重みの補正ベクトルCOR[i] += Q*D[i] を計算し、エポック中に累積する。

8.SQR[i] += COR[i]*COR[i] は、ニューロンに含まれる各重みについて、エポック全体で別々に計算され、蓄積されます。

9.エポック終了時に、各重みに対して個人補正を計算し、その重みに加えるW[i] += COR[i]/SQR[i]


係数を(1 - j/N)にすることと、絶対値が 20以上伸びた重みをランダムにすることを試してみました。ランダム化するとより効果的です。

P.S. 本文中の間違いを訂正しました。