記事についてのディスカッション - ページ 6

 
Maxim Dmitrievsky:
教科書には載っていなかった。良いモデルを組み合わせることで、クオリティを向上させることができるのは知っている。でも、その逆はないんだ)

まあ、それこそ森がやっていることだね。良いものも悪いものも全部ね。そして森は、とてもクールな数学者や統計学者によって作られた。

そして彼らはおそらく、最高のモデルだけを組み合わせようとしたのだろう(それがあなたや私の考えなら)。
 
elibrarius:

まあ、それこそが森の仕事だ。良いことも悪いことも。そして森は、とてもクールな数学者や統計学者によって作られた。

そして、彼らはおそらく最高のモデルだけを組み合わせようとしたのだろう(もし、それがあなたや私の考えていることなら)。

その森でさえ、誰かが経験的に導き出した50本から100本という妥当な限界を持っている。

最良のものをプールするのは一般的なやり方だ。カグルでは誰もがブーストを積み重ねるのが好きだ。少なくとも以前は

 
Maxim Dmitrievsky:
経験的に推論された50~100本という妥当な限界の森でさえ、もう意味がない。
そう、もう意味がない。時間は無駄になるし、品質もほとんど上がらない。

クラスタリングのバリエーションは50個しかない。それらを平均化するのは問題ないでしょう。
 
elibrarius:
はい、意味がありません。時間は無駄になるし、品質もほとんど上がらない。 クラスタリングのバリエーションが50個しかない。それを平均化するのは問題ないでしょう。

最良のものだけをクラスタリングする意味はわかります。

 
Maxim Dmitrievsky:

最高のものをプールするのは一般的なやり方だ。カグルではみんなブーストを積み重ねるのが好きなんだ。少なくとも以前は

kaggleに座っているのはBreimanたちではないのだろう。)だから、彼らは実験している...

 
Maxim Dmitrievsky:

ベストなものだけを並べるというのは分かる。

両方試して、試験サンプルで結果を比べてみてください。
 
elibrarius:

カグルの上に座っているのはブレイマンズではないだろう))))というわけで実験中...。

コンテストに入賞した選手たちです。)

 
elibrarius:
両方試して、試験サンプルで結果を比べてみてください。

いや、悪いモデルを追加しても意味がない。定義からして。

トレーニングにおいて、平均化することは一つのことですが、トレーニングされたものを平均化することは別のことです。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見たことがない。

さらに、50のモデルからシグナルを得るためのコスト、テストへのブレーキを想像してみてほしい。
 
Maxim Dmitrievsky:

ダメなモデルを増やしても意味がない。定義からして。

トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーをもたらすだけだ。

やってみればいい。時間はかからない。実験してみるのも面白いのでは?ブレイマンはランダムフォレストで それをしなかった。
 
Maxim Dmitrievsky:

ダメなモデルを増やしても意味がない。定義からして。

トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見た ことがない。

さらに、50のモデルから信号を得るためのコスト、テストのブレーキを想像してみてほしい。

それはどんなランダムフォレストでも 起こることだ。