記事"強化学習におけるモンテカルロ法の応用"についてのディスカッション - ページ 4 1234567 新しいコメント Aleksey Vyazmikin 2018.12.17 17:00 #31 Maxim Dmitrievsky:お好きなように :)しかし、これは些細なことです。重要度はフィッシュの分散に依存する(非常に単純なモデルを除いて、ほとんどの場合)。フォレストは,フィッシュに対していかなる変換も行わず,互いに乗算や除算なども行わず,単にノード間で値を散布するので,相互作用はなく,分離のみである.拡散の順序(予測変数がツリー内でどの程度深くなるか)は重要で、それは拡散でより良いものを含む他の予測変数に依存する...。 Maxim Dmitrievsky 2018.12.17 17:07 #32 Aleksey Vyazmikin:広がりの順序(予測変数がツリーでどの程度深くなるか)が重要で、よりよく広がるものを含む他の予測変数に依存する...。3分割された木ならそうだろうが、森なら忘れてしまえ。 あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか、無意味なことをでっち上げるのか......。 Aleksey Vyazmikin 2018.12.17 17:26 #33 Maxim Dmitrievsky:3つに割れた木ならそうだろうが、森なら忘れてしまえ。 あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか。文献、特に外国の文献の方がいい。欲張りなツリー構造は間違っている可能性があるという考えは、ユーチューブでいろいろなスピーカーから聞いたことがある。私が持っているのは実験結果だけで、権威のある研究はありません。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか? Maxim Dmitrievsky 2018.12.17 17:46 #34 Aleksey Vyazmikin:文献は自分で扱った方がいい、特に海外の文献は。欲張りなツリー構築は間違っている可能性があるという考えを、ユーチューブでいろいろなスピーカーから聞いたことがある。私は権威のある研究を持っているわけではなく、私の実験結果を持っているだけなので、私が結果を誤って解釈している可能性もある。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか?不要なものからノイズを取り除き、モデルを軽くするためです。 しかし、この記事のポイントは実は違っていて、実はタイトルにあるのだ。 Aleksey Vyazmikin 2018.12.17 18:48 #35 Maxim Dmitrievsky:余分なものからノイズを取り除き、モデルを明るくする。 しかし、この記事のポイントは実は違う。つまり、予測変数の ランダムな選択を 行い、その中から最適なモデルを選択するのだが、それが絶対的なものからどの程度良いものなのかはわからない。そこで、より合理的な選択を行い、仮に絶対的なモデルにより大きく近づけることを提案する。目的は同じだが、ツールは少し異なる。 Maxim Dmitrievsky 2018.12.17 19:17 #36 Aleksey Vyazmikin:つまり、予測因子を無作為に選択し、最良のモデルを選ぶわけだが、それが絶対的にどの程度優れているかはわからない。目的は同じですが、ツールは少し違います。予測変数の ランダムな選択はありません。 より情報に基づいた検索」とはどういう意味ですか? Aleksey Vyazmikin 2018.12.17 19:45 #37 Maxim Dmitrievsky:予測因子のランダムな選択はないより合理的な探索」とはどういう意味ですか?モンテカルロ法またはターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。 より有効なオーバーサンプリングとは、過去の結果に基づくオーバーサンプリングであり、いわば補強を伴うものである。 Maxim Dmitrievsky 2018.12.17 19:49 #38 Aleksey Vyazmikin:モンテカルロ法やターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。より有効なオーバーサンプリングは、過去の結果を用いたオーバーサンプリングであり、いわば補強である。おそらく記事のテーマとは関係ないのだろう。 importansについては すでに書いたと思う。 jaffer wilson 2019.03.05 09:54 #39 MetaQuotes Software Corp.:強化学習におけるモンテカルロ法の応用」が掲載されました:著者マキシム・ドミトリエフスキーありがとうございます。CPUの代わりにGPUを使って学習させることは可能ですか? Maxim Dmitrievsky 2019.03.05 10:01 #40 jaffer wilson:ありがとうございます。CPUの代わりにGPUを使ってトレーニングすることは可能ですか?はい、すべてのロジック(RFを含む)をopen clカーネルで 書き直せば可能です。 1234567 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
お好きなように :)
しかし、これは些細なことです。重要度はフィッシュの分散に依存する(非常に単純なモデルを除いて、ほとんどの場合)。フォレストは,フィッシュに対していかなる変換も行わず,互いに乗算や除算なども行わず,単にノード間で値を散布するので,相互作用はなく,分離のみである.
拡散の順序(予測変数がツリー内でどの程度深くなるか)は重要で、それは拡散でより良いものを含む他の予測変数に依存する...。
広がりの順序(予測変数がツリーでどの程度深くなるか)が重要で、よりよく広がるものを含む他の予測変数に依存する...。
3分割された木ならそうだろうが、森なら忘れてしまえ。
あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか、無意味なことをでっち上げるのか......。3つに割れた木ならそうだろうが、森なら忘れてしまえ。
あるいは、文献や専門家の研究で自分の考えを確認する。そうでなければ、なぜモデルが全く設計されていないことをするのか。文献、特に外国の文献の方がいい。欲張りなツリー構造は間違っている可能性があるという考えは、ユーチューブでいろいろなスピーカーから聞いたことがある。私が持っているのは実験結果だけで、権威のある研究はありません。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか?
文献は自分で扱った方がいい、特に海外の文献は。欲張りなツリー構築は間違っている可能性があるという考えを、ユーチューブでいろいろなスピーカーから聞いたことがある。私は権威のある研究を持っているわけではなく、私の実験結果を持っているだけなので、私が結果を誤って解釈している可能性もある。一般的に、すべての予測因子を一度に入力し、ほぼ完璧なモデルを得ることができるのであれば、この記事のポイントは何でしょうか?
不要なものからノイズを取り除き、モデルを軽くするためです。
しかし、この記事のポイントは実は違っていて、実はタイトルにあるのだ。余分なものからノイズを取り除き、モデルを明るくする。
しかし、この記事のポイントは実は違う。つまり、予測変数の ランダムな選択を 行い、その中から最適なモデルを選択するのだが、それが絶対的なものからどの程度良いものなのかはわからない。そこで、より合理的な選択を行い、仮に絶対的なモデルにより大きく近づけることを提案する。目的は同じだが、ツールは少し異なる。
つまり、予測因子を無作為に選択し、最良のモデルを選ぶわけだが、それが絶対的にどの程度優れているかはわからない。目的は同じですが、ツールは少し違います。
予測変数の ランダムな選択はありません。
より情報に基づいた検索」とはどういう意味ですか?
予測因子のランダムな選択はない
より合理的な探索」とはどういう意味ですか?
モンテカルロ法またはターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。
より有効なオーバーサンプリングとは、過去の結果に基づくオーバーサンプリングであり、いわば補強を伴うものである。
モンテカルロ法やターゲット変数のランダムサンプリングは別に考慮されるべきである」と書いてあるのですが、私は何となく予測変数のことだと勘違いしていました。
より有効なオーバーサンプリングは、過去の結果を用いたオーバーサンプリングであり、いわば補強である。
おそらく記事のテーマとは関係ないのだろう。
importansについては すでに書いたと思う。
強化学習におけるモンテカルロ法の応用」が掲載されました:
著者マキシム・ドミトリエフスキー
ありがとうございます。CPUの代わりにGPUを使って学習させることは可能ですか?
ありがとうございます。CPUの代わりにGPUを使ってトレーニングすることは可能ですか?
はい、すべてのロジック(RFを含む)をopen clカーネルで 書き直せば可能です。