記事"ディープニューラルネットワーク(その4)ニューラルネットワーク分類器のアンサンブル: バギング"についてのディスカッション - ページ 3

 

様々なelmNNのビデオを見たが、そのアイデアは、モデルが新しい隠れニューロンを一つずつ徐々に追加し、その重みを特別な計算式で計算するというものだ。隠れ層が1つのニューロンはどんな複雑な関数でも記述できるので、アルゴリズムは隠れ層のニューロンをたくさん使うことができる。

オーバーフィットに対抗するには、ニューロンの最大数を減らす必要がある。

 

アンサンブルの作成に関するもう一つのアイデアです。


。ある実験では、何百ものモデルを生成し、それらの組み合わせを検索することで最良のアンサンブルを見つけようとしました。その結果、そのような「最良」のアンサンブルにはかなり弱いモデルが含まれていることが多く、これらの弱いモデルを削除したり置き換えたりしようとしても、結果は悪化するだけでした。その結果、そのような「最良の」アンサンブルには、かなり弱いモデルが含まれていることが多く、そのような弱いモデルを取り除いたり、置き換えたりしようとしても、結果が悪化するだけでした。
現在、例えば私は、まず最良の結果を出す最良のモデルを見つけます。そして、最初のモデルとアンサンブルすることで、さらに良い結果が得られる2番目のモデルを探す。そして、最初の2つのモデルとアンサンブルすることで、さらに良い結果が得られる3つ目のモデルを追加する。などなど。つまり、私はモデル単体の結果には興味がなく、そのモデルがアンサンブルをどれだけ向上させるかに興味があるのだ。ブースティングのようなものだ。

 
Dr. Trader:

もうひとつ、アンサンブルのアイデアを紹介しよう。


。ある実験では、何百ものモデルを生成し、それらの組み合わせを検索することで最良のアンサンブルを見つけようとしました。その結果、そのような「最良」のアンサンブルにはかなり弱いモデルが含まれていることが多く、これらの弱いモデルを削除したり置き換えたりしようとしても、結果は悪化するだけでした。その結果、そのような「最良の」アンサンブルには、かなり弱いモデルが含まれていることが多く、そのような弱いモデルを取り除いたり、置き換えたりしようとしても、結果が悪化するだけでした。
現在、例えば私は、まず最良の結果を出す最良のモデルを見つけます。そして、最初のモデルとアンサンブルすることで、さらに良い結果が得られる2番目のモデルを探す。そして、最初の2つのモデルとアンサンブルすることで、さらに良い結果が得られる3つ目のモデルを追加する。などなど。つまり、私はモデル単体の結果には興味がなく、そのモデルがアンサンブルをどれだけ向上させるかに興味があるのだ。ブースティングのようなものだ。

興味深いオプションですね。このようなアンサンブルでの結果は平均のようなものだと思いますが、どうでしょうか?
回帰をやっていると書いていると思ったのですが、平均しかできないので、投票はアウトです。
 

平均するとそうだね。

 
フォワードの予想スコアは?
 
Виктор:
フォワードの予想結果は?

何が問題なんだ?

引用、スクリプトがあります。セットの先頭を500~1000本ずつずらして計算を繰り返し、ご希望の結果を得てください。

私の計算によると、最適なパラメータでアンサンブルをトレーニングした後、少なくとも次の750バーは良い分類品質を与えます。参考までに、M15の500バーは1週間です。再トレーニング/再最適化には約20-30分かかります(ハードウェアとRのリリースに依存します)。

このようなテストの例は、前の記事で 示されています。

幸運を祈る。

 
Vladimir Perervenko:

何が問題なんだ?

スクリプトがあります。500-1000バーでセットの開始をシフトして計算を繰り返し、あなたが興味を持っている結果を得る。

私の計算によると、最適なパラメータでアンサンブルをトレーニングした後、少なくとも次の750バーは良い分類品質を与えます。参考までに、M15の500バーは1週間です。再トレーニング/再最適化には約20-30分かかります(ハードウェアやRのリリースによって異なります)。

このようなテストの例は、前の記事で 示されている。

幸運を祈る

ZigZag incrementsがあなたの先生です。単調な部分が多い関数。これらは利益の増分ではない。そのため、正しく推測された70%のディレクションでは収益性を理解することはできません。
 
Виктор:
ジグザグ・インクリメントが先生です。単調な部分が多い関数。これらは利益増分ではありません。そのため、正しく推測された70%の方向では収益性を理解することができず、気配値でテストする必要があるのです。

その通りです。И ?

 
市場の現実(スプレッド、手数料、再クオート...)を考えると、ジグザグをターゲットとした分類の精度は、通常80%をはるかに超えるはずである。
 
Belford:
市場の現実(スプレッド、手数料、再クオート...)を考慮すると、ZigZagをターゲットとした分類の精度は通常80%よりはるかに高いはずです。

この数字はどのように決定/計算されたのですか?もちろん秘密でなければですが。