記事についてのディスカッション - ページ 6 12345678910111213...15 新しいコメント Aleksei Kuznetsov 2020.11.24 15:41 #51 Maxim Dmitrievsky: 教科書には載っていなかった。良いモデルを組み合わせることで、クオリティを向上させることができるのは知っている。でも、その逆はないんだ) まあ、それこそ森がやっていることだね。良いものも悪いものも全部ね。そして森は、とてもクールな数学者や統計学者によって作られた。 そして彼らはおそらく、最高のモデルだけを組み合わせようとしたのだろう(それがあなたや私の考えなら)。 Maxim Dmitrievsky 2020.11.24 15:43 #52 elibrarius:まあ、それこそが森の仕事だ。良いことも悪いことも。そして森は、とてもクールな数学者や統計学者によって作られた。 そして、彼らはおそらく最高のモデルだけを組み合わせようとしたのだろう(もし、それがあなたや私の考えていることなら)。 その森でさえ、誰かが経験的に導き出した50本から100本という妥当な限界を持っている。 最良のものをプールするのは一般的なやり方だ。カグルでは誰もがブーストを積み重ねるのが好きだ。少なくとも以前は Aleksei Kuznetsov 2020.11.24 15:45 #53 Maxim Dmitrievsky: 経験的に推論された50~100本という妥当な限界の森でさえ、もう意味がない。 そう、もう意味がない。時間は無駄になるし、品質もほとんど上がらない。 クラスタリングのバリエーションは50個しかない。それらを平均化するのは問題ないでしょう。 Maxim Dmitrievsky 2020.11.24 15:48 #54 elibrarius: はい、意味がありません。時間は無駄になるし、品質もほとんど上がらない。 クラスタリングのバリエーションが50個しかない。それを平均化するのは問題ないでしょう。 最良のものだけをクラスタリングする意味はわかります。 Aleksei Kuznetsov 2020.11.24 15:49 #55 Maxim Dmitrievsky:最高のものをプールするのは一般的なやり方だ。カグルではみんなブーストを積み重ねるのが好きなんだ。少なくとも以前は kaggleに座っているのはBreimanたちではないのだろう。)だから、彼らは実験している... Aleksei Kuznetsov 2020.11.24 15:50 #56 Maxim Dmitrievsky:ベストなものだけを並べるというのは分かる。 両方試して、試験サンプルで結果を比べてみてください。 Maxim Dmitrievsky 2020.11.24 15:50 #57 elibrarius:カグルの上に座っているのはブレイマンズではないだろう))))というわけで実験中...。 コンテストに入賞した選手たちです。) Maxim Dmitrievsky 2020.11.24 15:53 #58 elibrarius: 両方試して、試験サンプルで結果を比べてみてください。 いや、悪いモデルを追加しても意味がない。定義からして。トレーニングにおいて、平均化することは一つのことですが、トレーニングされたものを平均化することは別のことです。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見たことがない。 さらに、50のモデルからシグナルを得るためのコスト、テストへのブレーキを想像してみてほしい。 Aleksei Kuznetsov 2020.11.24 15:56 #59 Maxim Dmitrievsky:ダメなモデルを増やしても意味がない。定義からして。トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーをもたらすだけだ。 やってみればいい。時間はかからない。実験してみるのも面白いのでは?ブレイマンはランダムフォレストで それをしなかった。 Aleksei Kuznetsov 2020.11.24 15:57 #60 Maxim Dmitrievsky:ダメなモデルを増やしても意味がない。定義からして。トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見た ことがない。 さらに、50のモデルから信号を得るためのコスト、テストのブレーキを想像してみてほしい。 それはどんなランダムフォレストでも 起こることだ。 12345678910111213...15 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
教科書には載っていなかった。良いモデルを組み合わせることで、クオリティを向上させることができるのは知っている。でも、その逆はないんだ)
まあ、それこそ森がやっていることだね。良いものも悪いものも全部ね。そして森は、とてもクールな数学者や統計学者によって作られた。
そして彼らはおそらく、最高のモデルだけを組み合わせようとしたのだろう(それがあなたや私の考えなら)。まあ、それこそが森の仕事だ。良いことも悪いことも。そして森は、とてもクールな数学者や統計学者によって作られた。
そして、彼らはおそらく最高のモデルだけを組み合わせようとしたのだろう(もし、それがあなたや私の考えていることなら)。その森でさえ、誰かが経験的に導き出した50本から100本という妥当な限界を持っている。
最良のものをプールするのは一般的なやり方だ。カグルでは誰もがブーストを積み重ねるのが好きだ。少なくとも以前は
経験的に推論された50~100本という妥当な限界の森でさえ、もう意味がない。
クラスタリングのバリエーションは50個しかない。それらを平均化するのは問題ないでしょう。
はい、意味がありません。時間は無駄になるし、品質もほとんど上がらない。 クラスタリングのバリエーションが50個しかない。それを平均化するのは問題ないでしょう。
最良のものだけをクラスタリングする意味はわかります。
最高のものをプールするのは一般的なやり方だ。カグルではみんなブーストを積み重ねるのが好きなんだ。少なくとも以前は
kaggleに座っているのはBreimanたちではないのだろう。)だから、彼らは実験している...
ベストなものだけを並べるというのは分かる。
カグルの上に座っているのはブレイマンズではないだろう))))というわけで実験中...。
コンテストに入賞した選手たちです。)
両方試して、試験サンプルで結果を比べてみてください。
いや、悪いモデルを追加しても意味がない。定義からして。
トレーニングにおいて、平均化することは一つのことですが、トレーニングされたものを平均化することは別のことです。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見たことがない。
さらに、50のモデルからシグナルを得るためのコスト、テストへのブレーキを想像してみてほしい。ダメなモデルを増やしても意味がない。定義からして。
トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーをもたらすだけだ。
ダメなモデルを増やしても意味がない。定義からして。
トレーニングにおいて、平均化することと、トレーニングされたものを平均化することは別のことだ。悪いモデルを加えることで、意図的に自分の足を撃っているのだ。エラーを引き起こすだけだ。そんな練習はどこにも見た ことがない。
さらに、50のモデルから信号を得るためのコスト、テストのブレーキを想像してみてほしい。それはどんなランダムフォレストでも 起こることだ。