トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 605

 
エリブラリウス
ネットワークのニューロン数を自動的に決定したい。それを計算するための数式は?

インレイヤーは入力層の半分の大きさで、最大2層までとどこかで読みましたが、これ以上は意味がありません。

MLP用

 
彼はもう教壇に立つことはなく、カモをたくさん集めて証券会社を開きました

本気で教育投資をしたいのならゲルヒクに行くか、そのままペレペルキンに行くべきでしょう。


ペレペルキンはもう教えない、十分なカモを集めてDcを開いたのだ。

 
マキシム・ドミトリエフスキー

インレイヤーは入力層の半分の大きさで、最大2層までとどこかで読んだが、これ以上は意味がない。

MLP用

まったくもってナンセンス。少ないか多いか、ニューロンかレイヤーか、それはすべてタスクによります。Heikin(持っていると思います)は、どのように、そしてなぜそうなるのかを説明しています。
 
ユーリイ・アサウレンコ
まったくもってナンセンス。少ないかもしれないし、多いかもしれない。それはタスクによります。ハイキン(あると思います)は、方法と理由を説明しています。

私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。

 
マキシム・ドミトリエフスキー

私はこの情報を彼から見たことがない、もしかしたら私がよく読んでいなかったのかもしれない。

第2層は通常、入力層より大きくなります。これは、特徴の抽出を始めるからで、「はい/いいえ」の分類であっても、そのような特徴がたくさんある可能性があるからです。

ハイキンは確かに持っていて、私のよりずっといい)

 
ユーリイ・アサウレンコ
まったくもってナンセンス。ニューロンやレイヤーの数は、少ないかもしれないし、多いかもしれない - それはタスクに依存する。ヘイキン(持っていると思います)は、方法と理由を説明しています。

入力数÷2などのバリエーションを見たことがある。
最適なバリアントを自動的に計算する方法は?

 
エリブラリウス

入力数 / 2のオプションなどを見たことがあります。
最適な選択肢を自動的に計算する方法は?

間違っているかもしれませんが、私見ですが......ありえません。一般的な考察に基づいて選択され、学習結果に応じてニューロンを層に追加・削除し、さらには追加の層を追加・削除する。
 
ユーリイ・アサウレンコ

第2層は、特徴の抽出を始めるので、通常、入力層より大きくなります。そのような特徴は、たとえ「はい/いいえ」の分類であっても、たくさんあることがあります。

ハイキンは間違いなく持っているし、私のよりずっとよく書けている)


経験則では、この[隠れ]層のサイズは、入力層のサイズと ... の間のどこかである。と出力層のサイズ・・・・・・。

隠れノード数の算出には、一般的に、(入力数+出力数)×2/3

これは最も一般的な推奨事項です...が、一般的に決定する方法があります、あなたはgoogleを読む必要がありますが、それはそこに複雑です

NSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせをダウンサンプリングするか、ノッチする(ニューロン数を増やしていく)。

 

レイヤー数の選択について、引用します。

3層のネットワーク(numLayers=3:1入力、1隠れ家、1出力)で、ほとんどの場合において十分である。Tsybenkoの定理によれば、隠れ層が1つのネットワークは、任意の連続多次元関数を任意の精度で近似することが可能である。隠れ層が2層のネットワークは、任意の離散多次元関数を近似することが可能である。

棒グラフ解析は連続関数か離散関数のどちらを指すのだろう。

 
マキシム・ドミトリエフスキー
NSは特徴を抽出せず、特徴は入力に与える。すべての組み合わせを小型化するか、ノッチをつけるか(ニューロン数の増加とともに)。
だから、神経細胞数の過大評価もよくない。一般化するのではなく、ノイズと一緒に記憶していくことになる。
理由: