交易中的机器学习:理论、模型、实践和算法交易 - 页 487

 
伊万-内格雷什尼

随机森林应该具有较小的误差,因为所有的变量都用于决策树,而且没有像神经网络那样的内存使用限制--神经元的数量。在那里,你只能使用单独的操作来 "模糊 "结果,例如等级限制、修剪树木或双陆棋。我不知道MQ对alglib的实现是否有剪枝功能,但是bagging有。

如果这个变量小于1,误差应该上升。


它是,但错误仍然显示平均,如上所述......现在它是正常的。

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

顺便说一下,即使把r减少o.1,误差也会增加很多。高于r 0.9低于0.8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

在r=0.66(如经典的RF版本)时

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

而结果显示,乘法表已经解决得很糟糕了

 
伊万-内格雷什尼

随机森林应该具有较小的误差,因为所有的变量都用于决策树,而且没有像神经网络那样的内存使用限制--神经元的数量。在那里,你只能使用单独的操作来 "模糊 "结果,例如等级限制、修剪树木或双陆棋。我不知道在MQ的alglib实现中是否有修剪,有标签的存在

如果这个变量被设置得小于1,误差应该会上升。

误差要像@Maxim Dmitrievsky的 一样小
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
你必须在每500000000000000中做一笔错误的交易,这在任何工具中都是不可能的。

我的尊重。
 
安德烈-基塞廖夫
误差要像@Maxim Dmitrievsky的 一样小
我需要每50000000000000美元有一笔错误的交易,在任何工具上都不可能做到。

真诚的。

我告诉你,每棵决策树实际上都记住了所有的模式,在100%抽样的训练集中可能根本没有错误,也就是R=1。

是的,这是过度拟合,但这就是算法的工作原理,这就是他们在随机森林中使用各种技巧的原因。

 
伊万-内格雷什尼

那么交易呢,我告诉你,每棵决策树实际上都记住了所有的模式,在100%的抽样中可能根本没有错误,即R=1。


为此,你需要查看袋外,以估计模型,但那时你应该设置r=0.66的最大值。

 
伊万-内格雷什尼

那交易呢?我告诉你,每棵决策树实际上都记住了所有的模式,在100%抽样即R=1的情况下,根本不可能有任何错误。

但从你的话中我理解到,每棵树都会记住一些模式,这些模式以后可能不会重复。 但既然没有重复,我们就不能说它会怎样,把它的概率1作为一个公理,而不是把它当作0.5,因为它不知道。

与尊重。
 
马克西姆-德米特里耶夫斯基

对于这一点,你需要从袋子里找出来,以评估模型,但那时r=0.66的最大值,是的。

可能需要拿起它,但一袋一袋的预测技术不是很强 - IMHO
 
伊万-内格雷什尼
可能需要回升,但仅靠标签并不是一个非常强大的预测技术 - IMHO

好了,现在就说到这里...:) 然后,如果我把一个正常的lib与diplinking联系起来,我就会看着它。

但速度快!

 
马克西姆-德米特里耶夫斯基

它是,但错误仍然显示平均,如上所述......现在它是正常的。

顺便说一下,即使当r减少了o.1,误差也会大大增加。高于r 0.9低于0.8

在r=0.66(如经典的RF版本)时

结果显示,乘法表已经解决得很糟糕了。

当我提高信号的阈值时,NS通过增加必要的输入数据的数量来补偿它,结果是错误减少了,但输入的变体也变少了。






真诚的。
 
安德烈-基塞廖夫
我没有深入研究森林是如何工作的。但从你的话中我了解到,每棵树都记住了一个模式,随后可能不会重复。在这种情况下(因为没有重复),我们不能说它在加法中工作的可能性有多大,并把它的概率作为一个公理,而不是把它当作0.5,因为它基本上是未知的。因此我们得到森林几乎从不出错(从你的话中)。

恭敬不如从命。
R=1表示每棵树都能记住整个训练集的模式,0.66表示只有66%,而且每棵树都会挑选有回报的模式,即相同的模式可以被森林中的许多树重复。
 
安德烈-基塞廖夫
当我提高信号的阈值时,NS通过增加所需的输入数量进行补偿,结果,误差减少了,但输入的选择也少了。




真诚的。

好吧,这是一个把筹码和目标弄清楚的问题,虽然看起来有什么比乘法表更简单的,但那里也有不小的错误。

原因: