市場のエチケット、あるいは地雷原でのマナー - ページ 67

 
Neutron >> :

そうですね、なんといいますか。どうぞ!

パストゥーホフを読む。博士論文。

驚かれることでしょう。

見つからないんです。この作品をレビューしたいので、リンクを教えてください。しかし、私は通常、彼らが何のために書かれているかが明らかであるとして、論文を読んでいない、それにもかかわらず、私は思考のためのいくつかの食品をしたい、私に創造的な危機のために:)。

 

もちろん、本当に賢い人は、論文を書いていない人だけですこの世界では、彼らだけが本当のことをやっているのです。そして、人生で一度でもこの作品を書いた者は、その後、男ではない--明らかなカモ、バタニク、愚か者だ!」と。そして、テレビと携帯電話は、DudesとChicksによって発明された...。とか、この携帯電話ばかり使ってテレビを全然見ないとか、混乱してるんです。そして、飛行機の強度を知らなければ、飛行機を作ることはできないということですが、それでいいのでしょうか。しかも、レジリエントマトリクスを使いこなせないと書けないし、論文になるし...。

つまり 学位論文を読まないのは、何のために書かれて いるのかが明確だからではなく、何が書いてあるのかがわからないからなのです

悪気はないんだ、いいね?

 

そこで、パラメータで1層分を取る。

K=1,d=24+1,S(learning rate)=0.01 よく学習していることがわかる。




つまり、私の理解では、このグラフによって、ネットワークの 学習の質は、分散が小さいほど、平均誤差の最終値が小さくなり、これらの誤差が互いに近いほど、良いというように推定できます。

このようなグリッドの仕組みは、次のようなものです。


つまり、あまり...というのがわかりますね。学習速度を上げる:S=0.7


見た目は良くなったが、学習統計が怪しく見える。


質問です。

1.質問:1.ネットワークの学習性(ティーチング性)を評価する基準は何ですか?

2.上の例は、フィッティングと言えるのでしょうか?

3.Kの値は微妙な問題だとおっしゃっていましたね。下のグラフは、K < 1でネットワーク学習を行ったもので、より魅力的に見えます。

1:


市場型BPの学習ベクトルの大きさが一定でないのでは?


そして最後に、私の学習はここで終わりなのでしょうか?

 
Neutron >> :

もちろん、本当に賢い人は、論文を書いていない人だけですこの世界では、彼らだけが本当のことをやっているのです。そして、人生で一度でもこの作品を書いた者は、その後、男ではない--明らかなカモ、バタニク、愚か者だ!」と。そして、テレビと携帯電話は、DudesとChicksによって発明された...。とか、この携帯電話ばかり使ってテレビを全然見ないとか、混乱してるんです。そして、飛行機の強度を知らなければ、飛行機を作ることはできないということですが、それでいいのでしょうか。しかも、レジリエントマトリクスを使いこなせないと書けないし、論文になるし...。

つまり 学位論文を読まないのは、何のために書かれて いるのかが明確だからではなく、何が書いてあるのかがわからないからなのです

悪気はないんだ、いいね?

悪気はないんです。でも、リンクはどこにあるんだろう:)

 
registred писал(а)>>

悪気はないんです。でも、リンクはどこ?)

個人的なメッセージでピンときた。

満タンにする!

パラローカスへ

考えないといけないですね。

 
ちなみに、私も論文に書かれていることは、一番一般的な規定は別として、正直言って理解しようとしたのですが、よくわかりません...。 悲しい
 
Neutron >> :

プライベートメッセージで送ってくれた。

見逃していたようです。何もないんですよ。

 
Neutron >> :

もちろん、本当に頭のいい人は、論文を書いていない人ばかりですこの世界では、彼らだけが本当のことをやっているのです。そして、少なくとも人生で一度はこの作品を書いた人たちは、その後の男たちではなく、明らかなカモ、バタニク、愚か者なのですしかも、与えられた領域で仕事をしないとソプロマットは書けないし、すでに論文になっている...。

私のアイドルであるロシアの数学者オイラーは、約800の論文を書きましたが、その一つ一つが現代の論文に匹敵するほど重要で斬新なものです。

 
paralocus писал(а)>>

1.ネットワークの学習能力を評価する基準は何ですか?

2.与えられた例は、適合と言えるのでしょうか?

3.K値は微妙な問題だとおっしゃっていましたね。

Kファクターは、本当に思ったほど単純なものではありません。さらにEzhevは、NSの重みと入力の数の関数として、最適な学習ベクトルの長さの推定値を得た。彼は、NSの特徴空間におけるエントロピー最小化問題を解くことによって、これを得た。彼は解答を与えず、P=w*w/d という答えを用意しただけだった。実際、私は次のように見ています。

これが2層の学習ダイナミクスである。1つ目はP=d、 2つ目はP=w...です。の結果は同じであり,学習速度の学習ベクトルPの 長さへの依存性を考慮すると,最初の変形がより魅力的に見えるでしょう要するに、よくわからない...。

マセマタが 手に入り、正しく問題を解いてくれるように頼めればいいんですけどね。それはすごいことだ!そして、実験的なデータを集めること、つまり経験的に動くことが必要になってくるわけです。学習ベクトルの最適な長さは、 P=dの 条件の近くにあるようです。

ネットワークの作業性を推定する良い基準は、MTSカーネルでの動作ですが、デバッグの段階では、上記で提供された歩留まりの推定値、つまりスロープの正接と装置のボラティリティの積を使用することができます。例えば、1つのレイヤーのエントリ次元の関数として、この推定がどのように見えるかを示しています。

これは500回にわたる実験の平均値です。10のエントリー次元で、この少女は統計的にスプレッドをアウトパフォームしたことがわかります!これが相場の別のサンプル(例えば一ヶ月後)で確認されれば、安全に取引することができます。このビューに結果を持ってきてください。話し合いましょう。そして、2重のデータを重ね合わせて、その違いを見る...。

学びに関しては、このような皆さんとの対話、対話に参加されているフォーラムの方々のおかげで、私自身も学んでいると思いますし、その過程は果てしなく続くのですが......。期待しています。

Registred さんが書き込みました >>

見逃した。何もないんですよ。

なんだ、トピックがないじゃないか。それともファイルだけ?

 

いや、個人的なものはまったくないですね。