トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 610

 
ウラジミール・ペレヴェンコ
darch()関数内にはデフォルトでseed = NULLパラメータがあります。 これを何らかの状態、例えばseed = 12345に設定します。

これは小さなlearnRateの値です。RBMとNNはlearnRate = 0.7, numEpochs = 10でスタート。しかし、これは天井のデータです。特定のデータセットに最適化する必要があります。

グッドラック

アンサンブルを作るなら、set.seed()は外した方がいいですよね?グリッドが異なるように。または set.seed(N grid) - アンサンブル全体の再現性を確保するため。
 
エリブラリウス
また、アンサンブルを作りたいのであれば、set.seed()は削除した方が良いのでは?グリッドが異なるように。または set.seed(N mesh) - アンサンブル全体の再現性を確保するため。

はい、その通りです。このような複雑なモデル(ダーチのことです)のアンサンブルは、3~5個までしか入りません。そして、それらは非常に異なっているはずです。つまり、パラメータ(層数、ニューロン、活性化関数など)の値が異なるか、あるいは(今は説明しないが他の多くのバリエーションがある)、である。同じ構造のアンサンブルを異なる初期化で学習させるというバリエーションは可能かもしれないが、弱い。せめて、初期化の種類を変えてほしい。

グッドラック

 
ウラジミール・ペレヴェンコ

はい、その通りです。このような複雑なモデル(ダーチのことです)のアンサンブルは、3~5個までしか入りません。そして、それらは非常に異なっているはずです。つまり、パラメータ(層数、ニューロン、活性化関数など)の値が異なるか、あるいは(今は説明しないが他の多くのバリエーションがある)、である。同じ構造のアンサンブルを異なる初期化で学習させるというバリエーションは可能かもしれないが、弱い。せめて、初期化の種類を変えてほしい。

グッドラック

もし、1つの同じデータに対して、複数のトレーニングでプロセッサーを競わせ、最適な構造を定義するのであれば、結果をアンサンブルに配置したほうがよいでしょう。最も単純なオプションを使用する場合、ニューロン間隔を5またはパーセントにしてメッシュを作成し(この間隔ではモデルは非常に良いものになります)、3〜5または10の最良の結果を取り出して平均化に使用することができます。モデルはどうせ作って計算するのだから、無駄な努力をする必要はないだろう。))

 
エリブラリウス

同じデータで何度もCPUを動かして学習させ、最適な構造を決定するのであれば、その結果をアンサンブルにした方が良い。最も単純なオプションとして、ニューロン間隔が5またはパーセントのグリッド(このような間隔でもモデルは十分に異なる)を仮定すると、3〜5または10の最良の結果を取り、それらを平均化に使用することができます。モデルはどうせ作って計算するのだから、無駄な努力をする必要はないだろう。))


これらのモデルについて、一般的にどのように取り組んでおられるのでしょうか?:) 議論は進むが、誰もその結果について語らない。

ペルセプローネやgbmと比較したベンチもあるかもしれませんね。もちろん、FXの場合も。

 
マキシム・ドミトリエフスキー

:) 議論はあっても、誰も結果を発表しないので。

結果としての利益表を考えたら、結果は出ない。そして、このスレッドでも、ほとんどの人が、利益表以外は必要ないと思っています。その証拠に、私たちは単に他人を理解していないだけなのです。
 
マキシム・ドミトリエフスキー

これらのモデルについて、一般的にどのように取り組んでおられるのでしょうか?議論は続いているが、誰もその結果を口にしない。

私も他の人と同じように、50%寸前でエラーが出ています。でも、少なくともAlglibの10倍は速くカウントされます。ここでモデルの計算に40~100分かかるとしたら、Alglibでは同じ構造で24時間以上待たされ、待たずに計算を無効にしてしまったのです。
でも、今、サイクルでモデルをピックアップしていたら、また時間がかかってしまう......。また、全体のプログラミングもしなければなりません。
一般的には、MOに自分で時間制限をかけないので、長い時間になります。

興味深い - だから私は掘る)

 
ユーリイ・アサウレンコ
結果としての利益表を考えたら、結果は出ません。そして、このスレッドでも、ほとんどの人が、利益表以外は必要ないと言っています。その証拠に、私たちは単に他人を理解していないだけなのです。

後背地に携わっていたわけではないんですね。

 
エリブラリウス
テストサイトでは、多くの場合と同様、誤差は50%目前です。しかし、少なくともAlglibの何十倍もの速さでカウントされるのです。ここでモデルを計算するために40〜100分の場合は、Alglib-eは、同じ構造を待っている一日以上、待っていないと計算を無効にします。
でも、今、サイクルでモデルをピックアップしていたら、また時間がかかってしまう......。また、全体をプログラムする必要があります。

つまり、特性の選択がまだ主な問題なのですが :) 少なくとも、より早く習得できるようになったのは良いことです。

 
マキシム・ドミトリエフスキー

つまり、属性の選択がまだ大きな問題なのです :)

と、モデルの特徴や構造があまりにひどいことが判明。

 
Vladimir Perervenko:

1.どのような最適化のことをおっしゃっているのでしょうか?どのプラトー?どのモデルですか?ニューラルネットワークのことなら、DNNを使う前にトレーニング(パラメータの最適化)をしないのはおかしいと思うのですが。

2.安定させるべきモデルパラメータ(?)は?

あなたの考えは理解できない。

私は、DNNのハイパーパラメータの最適化について話していたのですが、これはテスターではなく、必ず行わなければならないことなのです。

何を言ってるんだ?

それ以外のすべての最適化基準 としてのモデルの有効性。

どのようなプラトーですか?

効率化のプラトー。

どのモデル?

どのモデルでも。

ニューラルネットワークということであれば、DNNを使う前にトレーニング(パラメータの最適化)をしないのはおかしいと思います。

そして、これは私が以前質問した、学習(パラメータ最適化)の結果が入力予測変数の非定常性にどのように依存するかという主旨の質問です。答えは、「そんなことはない」。NSは常に再トレーニングしなければならないので、非定常性に反応する、つまりモデルのパラメータはランダム変数なので、パラメータの定常性の問題がある、というのはよくわからないですね。つまり、これはGARCHで議論されているけれども、なぜか分類では議論されていないことの全貌なのです。

Типы оптимизации - Алгоритмический трейдинг, торговые роботы - MetaTrader 5
Типы оптимизации - Алгоритмический трейдинг, торговые роботы - MetaTrader 5
  • www.metatrader5.com
В данном режиме происходит полный перебор всех возможных комбинаций значений входных переменных, выбранных для оптимизации на соответствующей вкладке. Быстрая (генетический алгоритм) В основу данного типа оптимизации заложен генетический алгоритм подбора наилучших значений входных параметров. Данный тип оптимизации значительно быстрее полного...
理由: