交易中的机器学习:理论、模型、实践和算法交易 - 页 1202 1...119511961197119811991200120112021203120412051206120712081209...3399 新评论 Aleksey Vyazmikin 2018.12.12 17:36 #12011 马克西姆-德米特里耶夫斯基。我不太明白数字中的内容和问题是什么。这些数字显示了在选择不同概率的二元分类(X轴)时,模型的财务结果(Y轴)。通过测试样本,我了解到,当激活信号出现时,应该总是进入市场(训练决定是否进入)。矛盾之处在于,学习只会导致基本激活信号的恶化,如果我没有决定看看财务结果是如何根据概率段上分类点的转移而变化的,我就不会看到这一点。 马克西姆-德米特里耶夫斯基。我自己做了很多模型的变体,现在我想知道选择哪一个进行监测 :D 或者进一步改进它 总而言之这些方法根本不能正确地提供输出,不管是人字形还是其他一些乱七八糟的东西。 因为对于滑动窗口的每个维度,都应该有一个不同的分布来进行交易。然后,该模型调整得更好,包括对测试样本。(而之字形或其他输出本身是非常确定的,拟合的自由度很少)后者是做的,也就是说,对输出的列举是比较彻底的,然后那里就真的没有什么可做了 对具有不同滞后期的输入增量,以旧的方式,通过进口商的自我采样,也许通过PCA来摆脱相关性,这样的变种机器人也做了。但总的来说,使用PCA是一个有缺陷的想法(虽然,互联网上又有相反的文字)。不仅样品需要居中,而且随着新数据的出现,这些成分慢慢变成了渣滓 我们有一个非常不同的方法来处理这个问题。我对没有任何实际(视觉上可观察到的模式)理由的纯数学描述的价格感到陌生。相反,我应用ZZ,并从中看到了效率(ZZ上的梗阻者在所有MO套餐中总是排在首位)。我认为将这两种方法结合起来可以改善结果。 通过显著性来选择模型是无稽之谈--我之前已经表明,在同一个模型上去除不同的显著性预测因子可以改善学习结果,并在树叶中形成新的、更有成效和稳定的关系。所有这些 "重要性 "都是树状结构中的贪婪原则,并不是先验正确的,所以我需要单独的有意义的预测器评估方法--我还没有这些方法。 Aleksey Vyazmikin 2018.12.12 17:41 #12012 马克西姆-德米特里耶夫斯基。 所有这些都给出了这样的东西,几乎没有什么大惊小怪,只要等待10分钟。 进一步改进的可能性似乎很可疑,因为该模型已经可以解决超过100%的列车问题。 也许有了一块好的图形/乐器,你可以从中挤出更多的东西。看起来不错,但模型的周期太短,它在一年前的数据上表现如何? Maxim Dmitrievsky 2018.12.12 17:42 #12013 阿列克谢-维亚兹米 金。这些数字显示了在为二元分类(X轴)选择不同概率时模型的财务结果(Y轴)。在测试样本上,我得到的结论是:当激活信号出现时,应该总是进入市场(训练决定是否进入市场)。由此产生的悖论是,学习只会导致基本激活信号的恶化,如果我没有决定看看财务结果是如何根据概率段上分类点的转移而变化的,我就不会看到这一点。 我们有一个非常不同的方法来处理这个问题。我对没有任何实际(视觉上可观察到的模式)理由的纯数学描述的价格感到陌生。相反,我应用ZZ,并从中看到了效率(ZZ上的梗阻者在所有MO套餐中总是排在首位)。我认为将这两种方法结合起来可以改善结果。 通过显著性来选择模型是无稽之谈--我之前已经表明,在同一个模型上去除不同的显著性预测因子可以改善学习结果,并在树叶中形成新的、更有成效和稳定的关系。整个 "重要性 "的事情是树状结构中的贪婪原则,它不是先验正确的,所以我们需要单独的有意义的方法来评估预测器--我还没有。如何,应该在测试样本上考察重要性,而在训练样本上则是有限的。经典的内置进口数据如基尼值总是在说谎,我们必须进行互换(将每个预测因子逐一随机化,然后看模型的误差),然后将最差的那些丢掉。你必须事先摆脱相关的特征,否则通过排列组合的进口也会说谎。没有废话,你会得到最好的模型。如果到目前为止还没有发明更好的东西,为什么要试图重新发明轮子。 Maxim Dmitrievsky 2018.12.12 17:45 #12014 阿列克谢-维亚兹米 金。它看起来并不坏,但模型周期太短,它在一年前的数据上表现如何?15分钟,我只是不教更长的时间,因为需要更长的时间来等待。 至于15分钟的图表,只有fxsaber足够好,甚至可以做几年:) 我有一个无行动的杠杆,即从一开始就没有在模型中建立策略 СанСаныч Фоменко 2018.12.12 17:48 #12015 阿列克谢-维亚兹米 金。我在看一个模型中的利润与树木数量的关系图(512个模型)。 而且看起来有更多超过60岁的树木的模型不太可能脱落,或者样本很小...下面是其他具有不同数量树木的图表。 所有样品7400,RF算法 树木的数量 50 误差随着树木数量的增加而减少。它似乎在增加,突然变成了零。 树木的数量=150 使用150的时候,精度会提高,但幅度不大--几百分之一。 增加树木的数量 结论:在50棵以内,增加树木的数量是有意义的,但超过100棵就没有意义了。 我现在懒得做了,但我在改变样本量。 观察值达到1000的样本量会大大影响模型的准确性。但5000个样本量之后并不影响模型的准确性。 因此,我得出结论:误差不是由模型或其参数决定的,而是由 "预测者-目标 "组合决定的。 Maxim Dmitrievsky 2018.12.12 17:56 #12016 桑桑尼茨-弗门科。让我们增加树木的数量 因此,我的结论是:误差不是由模型或其参数决定的,而是由 "预测者-目标 "环节决定的。 最初建议50-100棵树,培育这么多弱的分类器没有意义,我也没有看到任何改进。 monte carlo之类的东西来帮忙,sanSanSanych......构建捆绑不是人类的思维方式,它只是一个f...大脑 Aleksey Vyazmikin 2018.12.12 18:09 #12017 马克西姆-德米特里耶夫斯基。好吧,你必须看一下测试样本上的进口,并在训练样本上对其进行调整。在经典的内置导入中,如基尼值总是在说谎,我们必须做互换(将每个预测因子逐一随机化,并查看模型误差),然后丢弃最差的那些。你必须事先摆脱相关的特征,否则通过排列组合的进口也会说谎。没有废话,你会得到最好的模型。如果到目前为止还没有发明出更好的东西,为什么要发明自行车呢?老实说,我不明白这个方法--我们是在说从训练中一步步关掉预测器,然后比较有无这个预测器的结果?那么随机化是什么意思呢?如何决定它是否糟糕--如果预测器允许正确分割1%的样本,并且处于树的中间深度--它是好还是坏?也许有必要考虑用根预测器构建树的质量,它如何在每一级切割样本--也许需要平滑的梯度下降......自行车必须进行发明,因为公共领域的东西不是现有的最好的东西,例如,也许我们应该不按最大限度而是按平均数或按x-sigma或其他方式划分样本--也许规则会更复杂,但更稳定。顺便说一下,我不明白,为什么没有一种训练方法,不仅使用数字计数器进行分叉,而且还使用逻辑的、比较的预测器? 马克西姆-德米特里耶夫斯基。15分钟,我只是没有训练更长时间,因为等待的时间更长。 我不知道......我认为几年来只有fxsaber能做出如此流畅的15分钟图表 :) 我有一个无为而治的方法,也就是说,从一开始就没有把任何策略建立在模型中。 你是否曾试图创建一个原始的战略,并为其训练过滤器,这将给或拒绝进入市场? Maxim Dmitrievsky 2018.12.12 18:14 #12018 阿列克谢-维亚兹米 金。老实说,我不明白这个方法--我们是在说从训练中一步一步地删除预测器,然后比较有无这个预测器的结果吗?那么随机化是什么意思呢?如何决定它是否糟糕--如果预测器允许正确分割1%的样本,并且处于树的中间深度--它是好还是坏?也许你只需要考虑用根预测器构建树的质量,它如何在每一级切割样本 - 也许你需要平滑的梯度衰减...自行车必须进行发明,因为公共领域的东西不是现有的最好的东西,例如,也许我们应该不按最大限度而是按平均数或按x-sigma或其他方式划分样本--也许规则会更复杂,但更稳定。顺便说一下,我不明白为什么没有一种训练方法,不仅使用数字计数器来计算分叉,而且还使用逻辑计数器来比较预测器? 你有没有尝试过创建一个原始的策略,并为其训练允许或禁止进入市场 的过滤器?首先用所有的特征训练模型,保存误差 然后随机化每个预测因子,例如用正态分布,并再次检查所有特征的误差,包括这个随机化(改变了的)特征,并与初始特征进行比较。没有必要 重新训练模型。于是检查每个预测因素。如果预测器是好的,那么整个样本(包括所有其他的原始预测器)的误差与原始的相比会急剧增加。保存错误差异,在此基础上筛选出最佳档案。然后,在最后,只对最好的进行训练,并将模型投入生产。坏的预测者是模型的噪音,不需要他们的1%。好的通常保持5-10个,其余的重要性呈指数级下降(Zipf定律)。 我试着教过过滤器,但不多,我觉得意义不大,最好是一次把所有东西都放到一个模型中去 如果可以的话,关于预测器的选择非常称职(前面已经抛出)。 Beware Default Random Forest Importances explained.ai 0.995 worst radius 0.995 mean perimeter 0.994 mean area 0.984 worst perimeter 0.983 worst area 0.978 radius error 0.953 mean concave points 0.944 mean concavity 0.936 worst concave points 0.927 mean compactness 0.916 worst concavity 0.901 perimeter error 0.898 worst compactness 0.894 worst texture 0.889 compactness... Aleksey Vyazmikin 2018.12.12 18:20 #12019 SanSanych Fomenko: 下面是其他有不同数量树木的图表。所有样品7400,RF算法树木的数量 50误差随着树木数量的增加而下降。它似乎在增加,突然变成了零。树木的数量=150使用150的时候,精度会提高,但幅度不大--几百分之一。增加树木的数量结论:在50棵以内,增加树木的数量是有意义的,但超过100棵就没有意义了。我现在懒得做了,但我在改变样本量。观察值达到1000的样本量会大大影响模型的准确性。但5000个样本量之后并不影响模型的准确性。因此,我的结论是:误差不是由模型或其参数决定的,而是由预测者与目标的关系决定的。 我认为对于随机森林 和不同类型的提升,可能会有不同数量的树,数量取决于预测器的质量和情况,对于同一目标可能是不同的(作为一个例子--目标是离任何点100个利润点)。看看哪些叶子的组合以及它们被用来做决定的频率是很有趣的--我想这就是能更好地估计模型的信息。而且,另一个问题是,不可能提交一个静止的市场模型进行测试和训练,这意味着只有一部分训练好的模型将被用于测试,模型必须由这一部分来估计,而另一部分可以变成更好。而如果分类误差不等于正确的分类模数(我们使用拖网,减少误差成本),模型估计就变得更加复杂。 Aleksey Vyazmikin 2018.12.12 18:25 #12020 马克西姆-德米特里耶夫斯基。首先对所有特征进行模型训练,保存误差 然后,一个接一个地随机化每个预测因子,比方说通过正态分布,并再次检查所有特征的误差,包括这个随机化的(改变了的)特征,并与最初的特征进行比较。没有必要 重新训练模型。于是检查每个预测因素。如果预测器是好的,那么整个样本(包括所有其他的原始预测器)的误差与原始的相比会急剧增加。保存错误差异,在此基础上筛选出最佳档案。然后,在最后,只对最好的进行训练,并将模型投入生产。坏的预测者是模型的噪音,不需要他们的1%。好的通常保持5-10个,其余的重要性呈指数级下降(Zipf定律)。 我试着教过过滤器,但不多,我觉得意义不大,最好是一次把所有东西都放到一个模型中去 如果可以的话,关于预测器的选择非常称职(前面已经抛出)。谢谢你。随机化应该是与样本中的预测因子相同的数值,对吗? 总的来说,我理解这个方法,谢谢,我需要思考如何实现它并进行尝试。 不幸的是,我无法掌握它,所以我偶尔会听你的解说。 但是,我又觉得这不太对,因为这将取决于预测因子在树上离根有多近......。 1...119511961197119811991200120112021203120412051206120712081209...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我不太明白数字中的内容和问题是什么。
这些数字显示了在选择不同概率的二元分类(X轴)时,模型的财务结果(Y轴)。通过测试样本,我了解到,当激活信号出现时,应该总是进入市场(训练决定是否进入)。矛盾之处在于,学习只会导致基本激活信号的恶化,如果我没有决定看看财务结果是如何根据概率段上分类点的转移而变化的,我就不会看到这一点。
我自己做了很多模型的变体,现在我想知道选择哪一个进行监测 :D 或者进一步改进它
总而言之这些方法根本不能正确地提供输出,不管是人字形还是其他一些乱七八糟的东西。
因为对于滑动窗口的每个维度,都应该有一个不同的分布来进行交易。然后,该模型调整得更好,包括对测试样本。(而之字形或其他输出本身是非常确定的,拟合的自由度很少)后者是做的,也就是说,对输出的列举是比较彻底的,然后那里就真的没有什么可做了
对具有不同滞后期的输入增量,以旧的方式,通过进口商的自我采样,也许通过PCA来摆脱相关性,这样的变种机器人也做了。但总的来说,使用PCA是一个有缺陷的想法(虽然,互联网上又有相反的文字)。不仅样品需要居中,而且随着新数据的出现,这些成分慢慢变成了渣滓我们有一个非常不同的方法来处理这个问题。我对没有任何实际(视觉上可观察到的模式)理由的纯数学描述的价格感到陌生。相反,我应用ZZ,并从中看到了效率(ZZ上的梗阻者在所有MO套餐中总是排在首位)。我认为将这两种方法结合起来可以改善结果。
通过显著性来选择模型是无稽之谈--我之前已经表明,在同一个模型上去除不同的显著性预测因子可以改善学习结果,并在树叶中形成新的、更有成效和稳定的关系。所有这些 "重要性 "都是树状结构中的贪婪原则,并不是先验正确的,所以我需要单独的有意义的预测器评估方法--我还没有这些方法。
马克西姆-德米特里耶夫斯基。
所有这些都给出了这样的东西,几乎没有什么大惊小怪,只要等待10分钟。
进一步改进的可能性似乎很可疑,因为该模型已经可以解决超过100%的列车问题。
也许有了一块好的图形/乐器,你可以从中挤出更多的东西。
看起来不错,但模型的周期太短,它在一年前的数据上表现如何?
这些数字显示了在为二元分类(X轴)选择不同概率时模型的财务结果(Y轴)。在测试样本上,我得到的结论是:当激活信号出现时,应该总是进入市场(训练决定是否进入市场)。由此产生的悖论是,学习只会导致基本激活信号的恶化,如果我没有决定看看财务结果是如何根据概率段上分类点的转移而变化的,我就不会看到这一点。
我们有一个非常不同的方法来处理这个问题。我对没有任何实际(视觉上可观察到的模式)理由的纯数学描述的价格感到陌生。相反,我应用ZZ,并从中看到了效率(ZZ上的梗阻者在所有MO套餐中总是排在首位)。我认为将这两种方法结合起来可以改善结果。
通过显著性来选择模型是无稽之谈--我之前已经表明,在同一个模型上去除不同的显著性预测因子可以改善学习结果,并在树叶中形成新的、更有成效和稳定的关系。整个 "重要性 "的事情是树状结构中的贪婪原则,它不是先验正确的,所以我们需要单独的有意义的方法来评估预测器--我还没有。
如何,应该在测试样本上考察重要性,而在训练样本上则是有限的。经典的内置进口数据如基尼值总是在说谎,我们必须进行互换(将每个预测因子逐一随机化,然后看模型的误差),然后将最差的那些丢掉。你必须事先摆脱相关的特征,否则通过排列组合的进口也会说谎。没有废话,你会得到最好的模型。如果到目前为止还没有发明更好的东西,为什么要试图重新发明轮子。
它看起来并不坏,但模型周期太短,它在一年前的数据上表现如何?
15分钟,我只是不教更长的时间,因为需要更长的时间来等待。
至于15分钟的图表,只有fxsaber足够好,甚至可以做几年:)
我有一个无行动的杠杆,即从一开始就没有在模型中建立策略我在看一个模型中的利润与树木数量的关系图(512个模型)。
而且看起来有更多超过60岁的树木的模型不太可能脱落,或者样本很小...
下面是其他具有不同数量树木的图表。
所有样品7400,RF算法
树木的数量 50
误差随着树木数量的增加而减少。它似乎在增加,突然变成了零。
树木的数量=150
使用150的时候,精度会提高,但幅度不大--几百分之一。
增加树木的数量
结论:在50棵以内,增加树木的数量是有意义的,但超过100棵就没有意义了。
我现在懒得做了,但我在改变样本量。
观察值达到1000的样本量会大大影响模型的准确性。但5000个样本量之后并不影响模型的准确性。
因此,我得出结论:误差不是由模型或其参数决定的,而是由 "预测者-目标 "组合决定的。
让我们增加树木的数量
因此,我的结论是:误差不是由模型或其参数决定的,而是由 "预测者-目标 "环节决定的。
最初建议50-100棵树,培育这么多弱的分类器没有意义,我也没有看到任何改进。
monte carlo之类的东西来帮忙,sanSanSanych......构建捆绑不是人类的思维方式,它只是一个f...大脑好吧,你必须看一下测试样本上的进口,并在训练样本上对其进行调整。在经典的内置导入中,如基尼值总是在说谎,我们必须做互换(将每个预测因子逐一随机化,并查看模型误差),然后丢弃最差的那些。你必须事先摆脱相关的特征,否则通过排列组合的进口也会说谎。没有废话,你会得到最好的模型。如果到目前为止还没有发明出更好的东西,为什么要发明自行车呢?
老实说,我不明白这个方法--我们是在说从训练中一步步关掉预测器,然后比较有无这个预测器的结果?那么随机化是什么意思呢?如何决定它是否糟糕--如果预测器允许正确分割1%的样本,并且处于树的中间深度--它是好还是坏?也许有必要考虑用根预测器构建树的质量,它如何在每一级切割样本--也许需要平滑的梯度下降......自行车必须进行发明,因为公共领域的东西不是现有的最好的东西,例如,也许我们应该不按最大限度而是按平均数或按x-sigma或其他方式划分样本--也许规则会更复杂,但更稳定。顺便说一下,我不明白,为什么没有一种训练方法,不仅使用数字计数器进行分叉,而且还使用逻辑的、比较的预测器?
15分钟,我只是没有训练更长时间,因为等待的时间更长。
我不知道......我认为几年来只有fxsaber能做出如此流畅的15分钟图表 :)
我有一个无为而治的方法,也就是说,从一开始就没有把任何策略建立在模型中。你是否曾试图创建一个原始的战略,并为其训练过滤器,这将给或拒绝进入市场?
老实说,我不明白这个方法--我们是在说从训练中一步一步地删除预测器,然后比较有无这个预测器的结果吗?那么随机化是什么意思呢?如何决定它是否糟糕--如果预测器允许正确分割1%的样本,并且处于树的中间深度--它是好还是坏?也许你只需要考虑用根预测器构建树的质量,它如何在每一级切割样本 - 也许你需要平滑的梯度衰减...自行车必须进行发明,因为公共领域的东西不是现有的最好的东西,例如,也许我们应该不按最大限度而是按平均数或按x-sigma或其他方式划分样本--也许规则会更复杂,但更稳定。顺便说一下,我不明白为什么没有一种训练方法,不仅使用数字计数器来计算分叉,而且还使用逻辑计数器来比较预测器?
你有没有尝试过创建一个原始的策略,并为其训练允许或禁止进入市场 的过滤器?
首先用所有的特征训练模型,保存误差
然后随机化每个预测因子,例如用正态分布,并再次检查所有特征的误差,包括这个随机化(改变了的)特征,并与初始特征进行比较。没有必要 重新训练模型。于是检查每个预测因素。如果预测器是好的,那么整个样本(包括所有其他的原始预测器)的误差与原始的相比会急剧增加。保存错误差异,在此基础上筛选出最佳档案。然后,在最后,只对最好的进行训练,并将模型投入生产。坏的预测者是模型的噪音,不需要他们的1%。好的通常保持5-10个,其余的重要性呈指数级下降(Zipf定律)。
我试着教过过滤器,但不多,我觉得意义不大,最好是一次把所有东西都放到一个模型中去
如果可以的话,关于预测器的选择非常称职(前面已经抛出)。
下面是其他有不同数量树木的图表。
所有样品7400,RF算法
树木的数量 50
误差随着树木数量的增加而下降。它似乎在增加,突然变成了零。
树木的数量=150
使用150的时候,精度会提高,但幅度不大--几百分之一。
增加树木的数量
结论:在50棵以内,增加树木的数量是有意义的,但超过100棵就没有意义了。
我现在懒得做了,但我在改变样本量。
观察值达到1000的样本量会大大影响模型的准确性。但5000个样本量之后并不影响模型的准确性。
因此,我的结论是:误差不是由模型或其参数决定的,而是由预测者与目标的关系决定的。
我认为对于随机森林 和不同类型的提升,可能会有不同数量的树,数量取决于预测器的质量和情况,对于同一目标可能是不同的(作为一个例子--目标是离任何点100个利润点)。看看哪些叶子的组合以及它们被用来做决定的频率是很有趣的--我想这就是能更好地估计模型的信息。而且,另一个问题是,不可能提交一个静止的市场模型进行测试和训练,这意味着只有一部分训练好的模型将被用于测试,模型必须由这一部分来估计,而另一部分可以变成更好。而如果分类误差不等于正确的分类模数(我们使用拖网,减少误差成本),模型估计就变得更加复杂。
首先对所有特征进行模型训练,保存误差
然后,一个接一个地随机化每个预测因子,比方说通过正态分布,并再次检查所有特征的误差,包括这个随机化的(改变了的)特征,并与最初的特征进行比较。没有必要 重新训练模型。于是检查每个预测因素。如果预测器是好的,那么整个样本(包括所有其他的原始预测器)的误差与原始的相比会急剧增加。保存错误差异,在此基础上筛选出最佳档案。然后,在最后,只对最好的进行训练,并将模型投入生产。坏的预测者是模型的噪音,不需要他们的1%。好的通常保持5-10个,其余的重要性呈指数级下降(Zipf定律)。
我试着教过过滤器,但不多,我觉得意义不大,最好是一次把所有东西都放到一个模型中去
如果可以的话,关于预测器的选择非常称职(前面已经抛出)。
谢谢你。随机化应该是与样本中的预测因子相同的数值,对吗?
总的来说,我理解这个方法,谢谢,我需要思考如何实现它并进行尝试。
不幸的是,我无法掌握它,所以我偶尔会听你的解说。
但是,我又觉得这不太对,因为这将取决于预测因子在树上离根有多近......。