記事"強化学習におけるランダム決定フォレスト"についてのディスカッション - ページ 4

 
Maxim Dmitrievsky:

そう、バーチャル・テスターも計画中だが、今は他のことを改良する必要がある。例えば、自動選択と予測変数の削減が今最も重要で、モデルが履歴を過剰学習しないようにするためだ。

生意気なことを言うな。どうせ新しいクラスを書くのであれば、次のようなものを使おう:

numberOfsamples++;
fuzzyRDFpolisyMatrix.Resize(numberOfsamples,iNeuronEntra+2);
for(int i=0;i<iNeuronEntra;i++)
     fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(i,ValueIndic(fila, i));
fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra,action_fuzzy);
fuzzyRDFpolisyMatrix[numberOfsamples-1].Set(iNeuronEntra+1,1-action_fuzzy);

for(int i=0;i<numRDF;i++)
      {
         FileOpen(NameFile+"_"+IntegerToString(i)+".txt",FILE_WRITE|FILE_BIN|FILE_COMMON);
         FileWriteArray(filehnd,RDF[i].m_trees); //ツリーレコード
         FileClose(filehnd);
      }
指標の数と木の数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。
 
mov:

生意気なことを言うな、どうせ新しいクラスを書くのなら、このようなものを使おう:

インジケータの数とツリーの数は変数で設定する。これはメインではないので、私のお気に入りへのささやかな甘えである。

おおよそ、この部分はすでに利用可能です。

 
黙って顔を出すのを楽しみにしているよ。
 

もしご迷惑でなければ、もうひとつ質問させてください。

ナンセンスな順序で言うと、最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つ、といった具合です。私たちは、最初の1つはおそらく再学習され、最後の1つは未学習である、異なる訓練度の森林のアンサンブルを持っています。 あなたの意見では、この方向に悩むことは意味があるのでしょうか?

 
mov:

もしご迷惑でなければ、もうひとつ質問させてください。

最初のパッセージは1つのフォレストで学習され、パッセージの2番目の部分は2つのフォレストで学習されます。この方向で悩むことに意味があると思いますか?

そのためには、なぜうまくいくのかという仕組みを理解する必要があります。アイデアがなければ、空に向かって指をさしているだけだ

例えば、すべてのスキャフォールドがトレーニング例ではオーバーフィットで、OOBでは機能しないのであれば、私は意味がわからない。多くの悪い解が良い解を与えることはない。

 

こんにちは(夜)。お邪魔してすみません。木の森の話題は、あなたが持ち出したのです。

AlgLibのフォレストの実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、私たちはネットワークを訓練し、実際の生活では、効率的な期間を延長するように再教育され、その後、新たな最適化が行われる。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:そのような追加のトレーニングは、時間内に制限された意味がありますか?

 
mov:

こんにちは(夜)、差し出がましいようで申し訳ないのですが、木の森の話題はあなたから持ち出されたもので、批判するものではありません......。

AlgLibの森の実装を見てみました。トレーニング関数は配列を初期化 し、実際にトレーニングを行う特別な関数に制御を渡します。リアルタイムの再トレーニングを組織化するのは比較的簡単ですが、この実装はCARTのツリー構築アルゴリズムのように枝を切り落としたりしません(私が判断する限り、アルゴリズムのドキュメントが乏しい他人のコードを解析するのは快感です)。再トレーニングの問題がある。つまり、我々はネットワークを訓練し、実生活では効率的な期間を延長するように再訓練し、その後新たな最適化を行う。完全な再トレーニングの可能性のためのカットオフの実現は時間がかかり、将来的にのみ、MT5の開発者に興味を持っている場合(彼らは、配信セットのライブラリを取っている)。そして、伝統的に:時間に制限されたそのような追加のトレーニングに意味がありますか?

プルーニングは、それ自体が面白いですが、それはここではありません、はい。再トレーニングの足場作り......それがどれほど有用なアイデアなのかはわからない。再トレーニングが頻繁に行われるのであれば話は別だが......そうなると、アルゴリズムが長い間機能しないことが判明する......二者択一だ。

 
Maxim Dmitrievsky:

ロシア語については1-2週間かかると思う。

親愛なるマキシム・ドミトリエフスキー、

ファジィロジックを 使用しない、異なるエージェントによるランダム決定フォレストの実装について、次の記事を発表されましたか?

ありがとうございました。

 

こんにちは、マキシム・ドミトリエフスキー

ランダム化決定森に関する次の論文はいつ完成したのですか?

それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか?

ありがとうございました。


 
FxTrader562 :

こんにちは、マキシム・ドミトリエフスキー

ランダム化決定森に関する次の論文はいつ完成したのですか?

それとも、すでに次の記事を発表していますか?もしそうなら、リンクを教えていただけますか?

ありがとうございました。


まだ準備できていません。完成したらメールします。