市場のエチケット、あるいは地雷原でのマナー - ページ 37 1...303132333435363738394041424344...104 新しいコメント paralocus 2009.05.30 11:22 #361 よし、自分のミスの原因がわかったぞ。実は、学習ベクトルの長さが重みの数に等しいということがわかったんですなぜなら、ニューロンの出力と学習ベクトルの各サンプルを比較して補正を蓄積していくのに対して、私はn+1番目のサンプルとしか比較する必要がないからです。新しいコードを書いているところです。 だから、グラフが異常なんです。 paralocus 2009.05.31 20:18 #362 ほら、見てください。 青がトレーニングサンプル、赤がテストサンプルです。タンジェント値は写真の左上にあります。 奇妙なことに、私はスケールの初期初期化を完全に削除しなければなりませんでした。そうして初めて、結果に再現性が生まれるのです。まだ質問がありますが、もう全部終わりましたので...。-:) 出品を添付します。すみません、まだコメントはありませんが、非常にシンプルに、さまざまな関数を使わずに、タンジェントとmnc以外のすべてを1つのプロシージャで行っています。 ファイル: neyrona.rar 132 kb Neutron 2009.06.01 08:49 #363 luuch vectorの番号付けに非常に複雑なロジックがあるように思いますが...。 もしかしたら、些細なインデックスの取り違えかもしれませんし、統計セット全体の手順の中で一度だけ重みをゼロにしているのかもしれません(W[i]<-0)。 NSへの入力であるあなたの D ベクトルは、統計量(インデックスi)のセットで再計算されないことに注意してください。全く詳しくないので、間違っているかもしれません。あなたのコードで連番を入力する方が簡単だったんですよ。 さて、あなたの女の子は、重みの初期ランダム化を感知し、十分に学習します(両方の線が原点を通過します)。赤がトレーニング用サンプル、青が試験用サンプルです。微調整を行ったファイルを以下に添付します。 ファイル: modif.zip 16 kb paralocus 2009.06.01 10:11 #364 お近づきになるには... セルゲイ さん、なぜ2層の出力ニューロンが活性化関数を持たないのか、教えてください。そうすると、デリバティブはどう変化するのでしょうか?すなわち、(Th)(1-OUT^2)であった。 となり、(1-OUT)? P.S. ご協力ありがとうございました paralocus 2009.06.01 12:31 #365 嗚呼、この仕組みがやっと分かった。シングルインプットは学習期間だけ必要で、あとは他のものと同じようにデータとして使うのではありませんか? そんなことまで考えていたのか!また、入力はすべて単純で、ハイパータンジェントはありません。BPが正規の機能だからなのか、それとも単に例えのためなのか。 もう1つ質問ですが、もしその女の子が少し訓練不足で、まあ5~7エポックだけ与えて、両方のmncsのタンジェントがユニティーより大きくなる場合、その女の子は未来を見ていることになりませんか(サインについて話しているのではありません)? Neutron 2009.06.01 13:26 #366 単層のNSでは、非線形関数による出力の活性化は、線形出力に比べて計算量を増やさないことが(数学者の著作を引用して)厳密に示される。したがって、非線形なFAを持つ単一神経細胞はナンセンスである。 二層NSの場合、出力ニューロンの活性化は計算能力を増加させないので(このアーキテクチャはすでに3、4などの可能なアーキテクチャの中で最大または同等の計算能力を持つ)、出力をさらに正確な予測の確率として解釈する場合、ハイパータンジェントによる出力ニューロンの活性化は合理的である。 線形出力の場合、導関数は(1-OUT)ではなく、単純に1です。つまり、線形関数y(x)=1*xの導関数です。 単体入力については、もちろんトレーニング中も運用中も使用します。よくぞ見つけてくれました。このバグを見逃していました。神経細胞の正しい表現方法はこうです。 W[0]は常に1が与えられるウェイトである。単一ニューロンの場合、オフセットの使用による効果はあまり顕著ではありません。この場合も、学習のスピードアップに重要な役割を果たすという状況をシミュレーションすることは難しくないのですが。 если девушку слегка недообучить - ну дать её всего 5-7 эпох - то тангенсы обеих мнк будут больше единицы, не говорит ли это о том, что девушка заглядывает в будущее(я не об синусе)? いや、統計資料が少なく、学習能力が低いことを示しているに過ぎない。自分で判断する:実際以上に何かを知ることはできない。この限界値はtg()=1に相当し、データの統計的ばらつきがあるため1より大きくなることはありえない。 paralocus 2009.06.01 13:49 #367 Neutron >> : 数学者の著作物を引用する -:)それがいかに無駄なことか、わかってほしい...。少なくとも私の場合は。 この1本の神経細胞で、もう1回やってみるつもりです。頭の中で整理して、コードを簡単なブロックに分解して、明日は自分の彼女にもう一枚追加してみようと思っています。しかし、かなりくだらない質問ですが、MatkadからMQLにコードを書き換えるとき、何が行われたかをどのように確認するのでしょうか?直接書き換えることはできません。Matcadは別の環境であり、そのプログラムロジックはMQLと同じではありません。 Neutron 2009.06.01 14:32 #368 そこが厄介なんです! 例えば、NSの性能の積分特性としてスロープタンジェント(有効入力の場合)、あるいは正しく推測された符号の割合(2進数の場合)を出力してMatcadのそれらと比較します。しかし、ここまではMCLの基準でNS-kaを周辺化する必要があり、ゼロカウントが最後になってさらに深みに入る場合です(Matkadeckではその逆)。また、NSの正しさを確認するためには、ランダム変数の積分によってBPを得るビナープロセスが必要である。つまり、傾斜角の正接は、実験回数が1/nとして無限大に傾き、ゼロになるはずであることを教えてくれます。 Wienerシリーズのジェネレーターです。 paralocus 2009.06.01 17:41 #369 ヴィネールに搭載されています。 削除済み 2009.06.01 17:55 #370 奇跡」の原因を探ろうと思っていた前回のチャートは何も残っていない--iFractalsは 恥知らずにもまた私を騙してしまったのだ。自分でiFractalsを書いた途端、すべてがクリアになり、つまり奇跡が消えたのです :) 頑張れ、同僚たち 1...303132333435363738394041424344...104 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
よし、自分のミスの原因がわかったぞ。実は、学習ベクトルの長さが重みの数に等しいということがわかったんですなぜなら、ニューロンの出力と学習ベクトルの各サンプルを比較して補正を蓄積していくのに対して、私はn+1番目のサンプルとしか比較する必要がないからです。新しいコードを書いているところです。
だから、グラフが異常なんです。
ほら、見てください。
青がトレーニングサンプル、赤がテストサンプルです。タンジェント値は写真の左上にあります。
奇妙なことに、私はスケールの初期初期化を完全に削除しなければなりませんでした。そうして初めて、結果に再現性が生まれるのです。まだ質問がありますが、もう全部終わりましたので...。-:)
出品を添付します。すみません、まだコメントはありませんが、非常にシンプルに、さまざまな関数を使わずに、タンジェントとmnc以外のすべてを1つのプロシージャで行っています。
luuch vectorの番号付けに非常に複雑なロジックがあるように思いますが...。
もしかしたら、些細なインデックスの取り違えかもしれませんし、統計セット全体の手順の中で一度だけ重みをゼロにしているのかもしれません(W[i]<-0)。
NSへの入力であるあなたの D ベクトルは、統計量(インデックスi)のセットで再計算されないことに注意してください。全く詳しくないので、間違っているかもしれません。あなたのコードで連番を入力する方が簡単だったんですよ。
さて、あなたの女の子は、重みの初期ランダム化を感知し、十分に学習します(両方の線が原点を通過します)。赤がトレーニング用サンプル、青が試験用サンプルです。微調整を行ったファイルを以下に添付します。
お近づきになるには...
セルゲイ さん、なぜ2層の出力ニューロンが活性化関数を持たないのか、教えてください。そうすると、デリバティブはどう変化するのでしょうか?すなわち、(Th)(1-OUT^2)であった。
となり、(1-OUT)?
P.S. ご協力ありがとうございました
嗚呼、この仕組みがやっと分かった。シングルインプットは学習期間だけ必要で、あとは他のものと同じようにデータとして使うのではありませんか?
そんなことまで考えていたのか!また、入力はすべて単純で、ハイパータンジェントはありません。BPが正規の機能だからなのか、それとも単に例えのためなのか。
もう1つ質問ですが、もしその女の子が少し訓練不足で、まあ5~7エポックだけ与えて、両方のmncsのタンジェントがユニティーより大きくなる場合、その女の子は未来を見ていることになりませんか(サインについて話しているのではありません)?
単層のNSでは、非線形関数による出力の活性化は、線形出力に比べて計算量を増やさないことが(数学者の著作を引用して)厳密に示される。したがって、非線形なFAを持つ単一神経細胞はナンセンスである。
二層NSの場合、出力ニューロンの活性化は計算能力を増加させないので(このアーキテクチャはすでに3、4などの可能なアーキテクチャの中で最大または同等の計算能力を持つ)、出力をさらに正確な予測の確率として解釈する場合、ハイパータンジェントによる出力ニューロンの活性化は合理的である。
線形出力の場合、導関数は(1-OUT)ではなく、単純に1です。つまり、線形関数y(x)=1*xの導関数です。
単体入力については、もちろんトレーニング中も運用中も使用します。よくぞ見つけてくれました。このバグを見逃していました。神経細胞の正しい表現方法はこうです。
W[0]は常に1が与えられるウェイトである。単一ニューロンの場合、オフセットの使用による効果はあまり顕著ではありません。この場合も、学習のスピードアップに重要な役割を果たすという状況をシミュレーションすることは難しくないのですが。
если девушку слегка недообучить - ну дать её всего 5-7 эпох - то тангенсы обеих мнк будут больше единицы, не говорит ли это о том, что девушка заглядывает в будущее(я не об синусе)?
いや、統計資料が少なく、学習能力が低いことを示しているに過ぎない。自分で判断する:実際以上に何かを知ることはできない。この限界値はtg()=1に相当し、データの統計的ばらつきがあるため1より大きくなることはありえない。
数学者の著作物を引用する
-:)それがいかに無駄なことか、わかってほしい...。少なくとも私の場合は。
この1本の神経細胞で、もう1回やってみるつもりです。頭の中で整理して、コードを簡単なブロックに分解して、明日は自分の彼女にもう一枚追加してみようと思っています。しかし、かなりくだらない質問ですが、MatkadからMQLにコードを書き換えるとき、何が行われたかをどのように確認するのでしょうか?直接書き換えることはできません。Matcadは別の環境であり、そのプログラムロジックはMQLと同じではありません。
そこが厄介なんです!
例えば、NSの性能の積分特性としてスロープタンジェント(有効入力の場合)、あるいは正しく推測された符号の割合(2進数の場合)を出力してMatcadのそれらと比較します。しかし、ここまではMCLの基準でNS-kaを周辺化する必要があり、ゼロカウントが最後になってさらに深みに入る場合です(Matkadeckではその逆)。また、NSの正しさを確認するためには、ランダム変数の積分によってBPを得るビナープロセスが必要である。つまり、傾斜角の正接は、実験回数が1/nとして無限大に傾き、ゼロになるはずであることを教えてくれます。
Wienerシリーズのジェネレーターです。
ヴィネールに搭載されています。
奇跡」の原因を探ろうと思っていた前回のチャートは何も残っていない--iFractalsは 恥知らずにもまた私を騙してしまったのだ。自分でiFractalsを書いた途端、すべてがクリアになり、つまり奇跡が消えたのです :)
頑張れ、同僚たち