記事"強化学習におけるランダム決定フォレスト"についてのディスカッション - ページ 4 12345678910 新しいコメント Oleg Mironov 2018.07.27 22:33 #31 Maxim Dmitrievsky:そう、バーチャル・テスターも計画中だが、今は他のことを改良する必要がある。例えば、自動選択と予測変数の削減が今最も重要で、モデルが履歴を過剰学習しないようにするためだ。生意気なことを言うな。どうせ新しいクラスを書くのであれば、次のようなものを使おう:numberOfsamples++; fuzzyRDFpolisyMatrix.Resize(numberOfsamples,iNeuronEntra+2); for(int i=0;i<iNeuronEntra;i++) fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(i,ValueIndic(fila, i)); fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra,action_fuzzy); fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra+1,1-action_fuzzy); for(int i=0;i<numRDF;i++) { FileOpen(NameFile+"_"+IntegerToString(i)+".txt",FILE_WRITE|FILE_BIN|FILE_COMMON); FileWriteArray(filehnd,RDF[i].m_trees); //ツリーレコード FileClose(filehnd); } 指標の数と木の数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。 Maxim Dmitrievsky 2018.07.27 22:36 #32 mov:生意気なことを言うな、どうせ新しいクラスを書くのなら、このようなものを使おう: インジケータの数とツリーの数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。おおよそ、この部分はすでに利用可能です。 Oleg Mironov 2018.07.27 22:38 #33 黙って顔を出すのを楽しみにしているよ。 Oleg Mironov 2018.07.29 19:39 #34 もしご迷惑でなければ、もうひとつ質問させてください。 ナンセンスな順序で言うと、最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つ、といった具合です。私たちは、最初の1つはおそらく再学習され、最後の1つは未学習である、異なる訓練度の森林のアンサンブルを持っています。 あなたの意見では、この方向に悩むことは意味があるのでしょうか? Maxim Dmitrievsky 2018.07.29 23:16 #35 mov:もしご迷惑でなければ、もうひとつ質問させてください。最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つのフォレストで学習されます。この方向で悩むことに意味があると思いますか?そのためには、なぜうまくいくのかという仕組みを理解する必要があります。アイデアがなければ、空に向かって指をさしているだけだ 例えば、すべてのスキャフォールドがトレーニング例ではオーバーフィットで、OOBでは機能しないのであれば、私は意味がわからない。多くの悪い解が良い解を与えることはない。 Oleg Mironov 2018.07.31 23:32 #36 こんにちは(夜)。お邪魔してすみません。木の森の話題は、あなたが持ち出したのです。 AlgLibのフォレストの実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、私たちはネットワークを訓練し、実際の生活では、効率的な期間を延長するように再教育され、その後、新たな最適化が行われる。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:そのような追加のトレーニングは、時間内に制限された意味がありますか? Maxim Dmitrievsky 2018.07.31 23:41 #37 mov:こんにちは(夜)、差し出がましいようで申し訳ないのですが、木の森の話題はあなたから持ち出されたもので、批判するものではありません......。AlgLibの森の実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、我々はネットワークを訓練し、実生活では効率的な期間を延長するように再訓練し、その後新たな最適化を行う。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:時間に制限されたそのような追加のトレーニングに意味がありますか?プルーニングは、それ自体が面白いですが、それはここではありません、はい。再トレーニングの足場作り......それがどれほど有用なアイデアなのかはわからない。再トレーニングが頻繁に行われるのであれば話は別だが......そうなると、アルゴリズムが長い間機能しないことが判明する......二者択一だ。 FxTrader562 2018.08.02 10:28 #38 Maxim Dmitrievsky:ロシア語については1-2週間かかると思う。親愛なるマキシム・ドミトリエフスキー、 ファジィロジックを 使用しない、異なるエージェントによるランダム決定フォレストの実装について、次の記事を発表されましたか? ありがとうございました。 FxTrader562 2018.08.04 19:36 #39 こんにちは、マキシム・ドミトリエフスキー、 ランダム化決定森に関する次の論文はいつ完成したのですか? それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか? ありがとうございました。 Maxim Dmitrievsky 2018.08.04 19:59 #40 FxTrader562 :こんにちは、マキシム・ドミトリエフスキー 、ランダム化決定森に関する次の論文はいつ完成したのですか?それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか?ありがとうございました。まだ準備できていません。完成したらメールします。 12345678910 新しいコメント 取引の機会を逃しています。 無料取引アプリ 8千を超えるシグナルをコピー 金融ニュースで金融マーケットを探索 新規登録 ログイン スペースを含まないラテン文字 このメールにパスワードが送信されます エラーが発生しました Googleでログイン WebサイトポリシーおよびMQL5.COM利用規約に同意します。 新規登録 MQL5.com WebサイトへのログインにCookieの使用を許可します。 ログインするには、ブラウザで必要な設定を有効にしてください。 ログイン/パスワードをお忘れですか? Googleでログイン
そう、バーチャル・テスターも計画中だが、今は他のことを改良する必要がある。例えば、自動選択と予測変数の削減が今最も重要で、モデルが履歴を過剰学習しないようにするためだ。
生意気なことを言うな。どうせ新しいクラスを書くのであれば、次のようなものを使おう:
指標の数と木の数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。生意気なことを言うな、どうせ新しいクラスを書くのなら、このようなものを使おう:
インジケータの数とツリーの数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。おおよそ、この部分はすでに利用可能です。
もしご迷惑でなければ、もうひとつ質問させてください。
ナンセンスな順序で言うと、最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つ、といった具合です。私たちは、最初の1つはおそらく再学習され、最後の1つは未学習である、異なる訓練度の森林のアンサンブルを持っています。 あなたの意見では、この方向に悩むことは意味があるのでしょうか?
もしご迷惑でなければ、もうひとつ質問させてください。
最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つのフォレストで学習されます。この方向で悩むことに意味があると思いますか?
そのためには、なぜうまくいくのかという仕組みを理解する必要があります。アイデアがなければ、空に向かって指をさしているだけだ
例えば、すべてのスキャフォールドがトレーニング例ではオーバーフィットで、OOBでは機能しないのであれば、私は意味がわからない。多くの悪い解が良い解を与えることはない。
こんにちは(夜)。お邪魔してすみません。木の森の話題は、あなたが持ち出したのです。
AlgLibのフォレストの実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、私たちはネットワークを訓練し、実際の生活では、効率的な期間を延長するように再教育され、その後、新たな最適化が行われる。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:そのような追加のトレーニングは、時間内に制限された意味がありますか?
こんにちは(夜)、差し出がましいようで申し訳ないのですが、木の森の話題はあなたから持ち出されたもので、批判するものではありません......。
AlgLibの森の実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、我々はネットワークを訓練し、実生活では効率的な期間を延長するように再訓練し、その後新たな最適化を行う。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:時間に制限されたそのような追加のトレーニングに意味がありますか?
プルーニングは、それ自体が面白いですが、それはここではありません、はい。再トレーニングの足場作り......それがどれほど有用なアイデアなのかはわからない。再トレーニングが頻繁に行われるのであれば話は別だが......そうなると、アルゴリズムが長い間機能しないことが判明する......二者択一だ。
ロシア語については1-2週間かかると思う。
親愛なるマキシム・ドミトリエフスキー、
ファジィロジックを 使用しない、異なるエージェントによるランダム決定フォレストの実装について、次の記事を発表されましたか?
ありがとうございました。
こんにちは、マキシム・ドミトリエフスキー、
ランダム化決定森に関する次の論文はいつ完成したのですか?
それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか?
ありがとうございました。
こんにちは、マキシム・ドミトリエフスキー 、
ランダム化決定森に関する次の論文はいつ完成したのですか?
それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか?
ありがとうございました。
まだ準備できていません。完成したらメールします。