記事"ディープニューラルネットワーク(その4)ニューラルネットワーク分類器のアンサンブル: バギング"についてのディスカッション - ページ 4

 
Vladimir Perervenko:

また、この数字をどのように決定/計算したのですか?もちろん、秘密でなければ。

実験的な方法だ。特定の時系列、時間枠、ZigZagパラメータに大きく依存します。例えば、EURUSD15の場合、0.84の精度は十分ではありませんでした。

 

10個のDNN Darchのアンサンブルを試し、上位10個の予測を平均化。

改善は見られず、平均予測(osh=33%)はベスト(osh=31%)をわずかに下回った。ワーストはエラー=34%。

DNNはよく訓練されている - 100エポック分。

どうやらアンサンブルは、Elmのような訓練不足のネットワークや弱いネットワークが多数あってもうまく機能するようだ。

 
elibrarius:

10個のDNN Darchのアンサンブルを試し、上位10個の予測を平均化。

改善は見られず、平均予測(osh=33%)はベスト(osh=31%)をわずかに下回った。最悪はエラー=34%だった。

DNNはよく訓練されている - 100エポック分。

どうやらアンサンブルは、Elmのような訓練不足のネットワークや弱いネットワークが多数あってもうまく機能するようだ。

もちろん、アンサンブルでは弱くて不安定なモデルを使う方がよい。しかし、厳密なものを使ってアンサンブルを作ることもできるが、テクニックは少し異なる。サイズが許せば、次回はTensorFlowを使ってアンサンブルを作成する方法を紹介する。一般的に、アンサンブルの話題は非常に広くて面白い。例えば、ELMニューラルネットワークやその他の弱いモデルをノードとしてRandomForestを構築することができる(gensembleパッケージを参照)。

成功

 
ディープNNの新しいトピックをチェックするのが 習慣になっている。ブラボー!
 

Обсуждение и вопросы по коду можно сделать в ветке

Удачи

 

コードに関する議論や質問はブランチで どうぞ。

幸運を祈る

 
興味深い記事だ。