記事"強化学習におけるモンテカルロ法の応用"についてのディスカッション - ページ 4

 
Maxim Dmitrievsky:

お好きなように :)

しかし、これは些細なことです。重要度はフィッシュの分散に依存する(非常に単純なモデルを除いて、ほとんどの場合)。フォレストは,フィッシュに対していかなる変換も行わず,互いに乗算や除算なども行わず,単にノード間で値を散布するので,相互作用はなく,分離のみである.

拡散の順序(予測変数がツリー内でどの程度深くなるか)は重要で、それは拡散でより良いものを含む他の予測変数に依存する...。

 
Aleksey Vyazmikin:

広がりの順序(予測変数がツリーでどの程度深くなるか)が重要で、よりよく広がるものを含む他の予測変数に依存する...。

3分割された木ならそうだろうが、森なら忘れてしまえ。

あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか、無意味なことをでっち上げるのか......。
 
Maxim Dmitrievsky:

3つに割れた木ならそうだろうが、森なら忘れてしまえ。

あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか。

文献、特に外国の文献の方がいい。欲張りなツリー構造は間違っている可能性があるという考えは、ユーチューブでいろいろなスピーカーから聞いたことがある。私が持っているのは実験結果だけで、権威のある研究はありません。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか?

 
Aleksey Vyazmikin:

文献は自分で扱った方がいい、特に海外の文献は。欲張りなツリー構築は間違っている可能性があるという考えを、ユーチューブでいろいろなスピーカーから聞いたことがある。私は権威のある研究を持っているわけではなく、私の実験結果を持っているだけなので、私が結果を誤って解釈している可能性もある。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか?

不要なものからノイズを取り除き、モデルを軽くするためです。

しかし、この記事のポイントは実は違っていて、実はタイトルにあるのだ。
 
Maxim Dmitrievsky:

余分なものからノイズを取り除き、モデルを明るくする。

しかし、この記事のポイントは実は違う。

つまり、予測変数の ランダムな選択を 行い、その中から最適なモデルを選択するのだが、それが絶対的なものからどの程度良いものなのかはわからない。そこで、より合理的な選択を行い、仮に絶対的なモデルにより大きく近づけることを提案する。目的は同じだが、ツールは少し異なる。

 
Aleksey Vyazmikin:

つまり、予測因子を無作為に選択し、最良のモデルを選ぶわけだが、それが絶対的にどの程度優れているかはわからない。目的は同じですが、ツールは少し違います。

予測変数の ランダムな選択はありません。

より情報に基づいた検索」とはどういう意味ですか?

 
Maxim Dmitrievsky:

予測因子のランダムな選択はない

より合理的な探索」とはどういう意味ですか?

モンテカルロ法またはターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。

より有効なオーバーサンプリングとは、過去の結果に基づくオーバーサンプリングであり、いわば補強を伴うものである。

 
Aleksey Vyazmikin:

モンテカルロ法やターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。

より有効なオーバーサンプリングは、過去の結果を用いたオーバーサンプリングであり、いわば補強である。

おそらく記事のテーマとは関係ないのだろう。

importansについては すでに書いたと思う。

 

ありがとうございます。CPUの代わりにGPUを使って学習させることは可能ですか?

 
jaffer wilson:

ありがとうございます。CPUの代わりにGPUを使ってトレーニングすることは可能ですか?

はい、すべてのロジック(RFを含む)をopen clカーネルで 書き直せば可能です。