記事についてのディスカッション - ページ 5

 
elibrarius:
それなら、正確に平均化する必要がある。そうしないと、新しいデータでは「違う」ことになる。

正確に平均化する必要はありません。サンプラーにはすでに平均化が組み込まれています。

GMMサンプラーは、歪んだクラスなどの悪いサンプルを作成する可能性があります。それを考慮することに意味があるのでしょうか?

 
Maxim Dmitrievsky:

平均する必要はない

GMMサンプラーは、歪んだクラスなどで悪いサンプルを作成する可能性がある。それを考慮に入れることは意味があるのでしょうか?

ランダムフォレストも同様に、成功する木とそうでない木のセットを作成します。すべてのモデルを平均化すると、単一の最適なツリーよりも新しいデータでより良い結果を示す。

 
elibrarius:

ランダムフォレストも同様に、良いツリーとそうでないツリーのセットを作成する。すべてのモデルを平均化すると、単一の最良の木よりも新しいデータでより良い結果を示す。

また、複数のフォレストを構成した場合、トランザクションはほぼゼロになり、シグナルは重複する。

 
Maxim Dmitrievsky:

また、複数のスキャフォールドを組み合わせた場合、トレードはほぼゼロになり、シグナルは重なる。

100本の森が複数(例えば10本)あることは、1000本の森が1つあることと同じです。多くのシグナルが得られる。

 
elibrarius:

数本(例えば10本)の100本の森は、1本の1000本の森と同じである。多くのシグナルを与える。

練習は?やったよ。信号が少なくなる。
 
分類が0.5を超えた場合。0.6と0.4の代わりに0.51と0.49をトリガーとする。
 
Maxim Dmitrievsky:
練習は?前にやったことがある。信号が少なくなる。
インデントを0.5から設定したのなら、それを小さくすればいい。木の本数が10倍多ければ、インデントも10分の1になる。
 
elibrarius:
もし0.5のインデントを設定しているなら、それを小さくすればいいだけだ。
それは同感だ。それに、なぜ無作為に悪いモデルを追加しなければならないのか、よく理解できない。お互いを向上させるクールなものを構成する - 別の会話
 
Maxim Dmitrievsky:
それは同感だ。それに、なぜ無作為に悪いモデルを追加するのかがよく理解できない。お互いを向上させるようなクールなモデルを構成するのは、また別の話です。
フォレストでは、2年ほど前に1000個のモデルを訓練し、ベスト10-50を選びました。
必要なものすべてを平均化したもの。足場原理の基本的な説明にはそう書いてある。一人の専門家よりも群衆の方がよく知っているように。
 
elibrarius:
2年ほど前に木材でこれをやった。1000人を訓練し、ベスト10-50を取った。それはうまくいかなかった。どうやら新しいデータでの結果はあまり良くなかったようだ。 必要なのは、一列に並んだすべての平均化である。足場原理の基本的な説明にはそう書かれている。一人の専門家よりも群衆の方がよく知っているように。
教科書には書いてなかった。良いモデルを組み合わせることで、クオリティを向上させることができるのは知っている。でも、その逆はない)