トレーディングにおける機械学習:理論、モデル、実践、アルゴトレーディング - ページ 487

 
イワン・ネグレシュニー

ランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかは知らないが、バギングにはある。

この変数が1より小さいと、誤差が大きくなるはずです。


ですが、上記のようにエラーが平均的に表示されたままでした...今は正常です

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

ちなみに、rをo.1だけ小さくしても、誤差は非常に大きくなります。r 0.9より上 0.8より下

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

r = 0.66の場合(クラシックRF版と同様)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

そして結果は、掛け算の表がすでに悪い解答をしていることがわかる

 
イワン・ネグレシュニー

ランダムフォレストは、決定木ですべての変数を使用し、ニューラルネットワークのようなメモリ使用量の制限、つまりニューロン数がないため、誤差が小さいとされています。そこでは、レベル制限、ツリートリミング、すごろくなど、結果を「ぼかす」ための別々の操作しかできません。MQのalglibの実装に枝刈りがあるかどうかは知らないが、タグ付けはある。

この変数が1より小さく設定されると、誤差が大きくなるはずです。

マキシム・ドミトリエフスキー氏の ように誤差が少なくなるように
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
5億分の1に1回の割合で間違った取引をする必要があります。

my respect
 
アンドレイ・キセリョフ
マキシム・ドミトリエフスキー氏の ように誤差が少なくなるように
50000000000000000に1つの間違った取引が必要です。

敬具

決定木はすべてのパターンを記憶しているので、100%サンプリング、つまりR=1の訓練セットではまったく誤差が生じない可能性がある、と言っているのです。

確かにオーバーフィットですが、それがアルゴリズムの仕組みです。だからこそ、ランダムフォレストでは様々なトリックが使われているのです。

 
イワン・ネグレシュニー

ディールについては、すべての決定木は実質的にすべてのパターンを記憶しており、100%サンプリング、すなわちR=1ではまったく誤差がない可能性があると言っているのです。


この場合、モデルを推定するために、バッグの外を見る必要がありますが、その場合は、r=0.66 maxを設定する必要があります。

 
イワン・ネグレシュニー

決定木はすべてのパターンを記憶しており、100%サンプリング、つまりR=1ではまったく誤差が生じないと言っているのですが、どうでしょう?

しかし、あなたの言葉から、すべての木は何らかのパターンを覚えていて、それが後で繰り返されないかもしれないと理解しました。 しかし、繰り返しがない以上、それがどのように働くかは分からず、その確率を0.5とするのではなく、1を公理とすることができるのです。

を尊重します。
 
マキシム・ドミトリエフスキー

これは、モデルを評価するために、バッグの外を見る必要がありますが、その後、r=0.66の最大値は、はい置く

おそらく、それをピックアップする必要がありますが、1つのバギングは予測のための非常に強力な技術ではありません - IMHO
 
イワン・ネグレシュニー
おそらくピックアップする必要があると思いますが、タグ付けだけでは予測のための技術としてはあまり強くありません - IMHO

まあ、今のところはそんなところですが...。:) その後、ディプリンクでまともなリブを引っ掛けたら、見ます。

が、スピードは!?

 
マキシム・ドミトリエフスキー

ですが、上記のようにエラーが平均的に表示されたままでした...今は正常です

ちなみに、rをo.1だけ小さくしても、誤差は大きくなる。r 0.9 以上 0.8 未満

r = 0.66の場合(クラシックRF版と同様)

そして、結果を見ればわかるのですが、掛け算の表はすでに非常に悪い解き方をしているのです。

信号NSの閾値を上げ、必要な入力データ量を増やすことで補ったところ、誤差は小さくなったが、入力のバリエーションも少なくなった。






敬具
 
アンドレイ・キセリョフ
この場合(繰り返しがないので)、プラスでうまくいった可能性がどれくらいあるかは言えず、基本的に未知なので0.5とするのではなく、1の確率を公理とすることができます。

謹んで
R=1はすべての木が学習パターン全体を記憶できることを意味し、0.66は66%しか記憶できないことを意味する。また、すべての木は戻り値のあるパターンを選ぶ、つまり、同じパターンを森の中の多くの木が繰り返し使うことができる。
 
アンドレイ・キセリョフ
信号のスレッショルドを上げると、NSは必要な入力数を増やすことでそれを補い、結果的に誤差は減りましたが、入力の選択肢も減りました。




敬具

まあ、チップとターゲットを正しく理解することが問題なのですが、掛け算の表ほど簡単なものはないように思えますが、そこにも小さな間違いはありません。

理由: