交易中的机器学习:理论、模型、实践和算法交易 - 页 2553

 
Dmytryi Nazarchuk#:
Logistic regression
森林/灌木回归更准确。
 
elibrarius#:

不,它是一个记忆历史的数据库...

这是个反问句:))

 
mytarmailS#:

这是个反问句:)))

你在这个问题上,我知道))。
这是为新加入MO的人准备的。如果他们来到这里。

 
Vladimir Perervenko#:

处理噪声样本有三个选项:删除、重新分区(纠正标记)和将噪声样本分离出来,成为一个单独的类。根据我的经验,大约25%的样本是 "噪音"。质量改进约为5%,它取决于模型和数据准备。我偶尔会应用它

使用预测器时还有一个问题--它们的漂移。而这个问题在测试和运行中都必须被识别和考虑到。所附的文章翻译(在网上找其他的),还有一个漂流瓶 的包装。它不是唯一的。但问题是,在选择预测器时,你不仅需要考虑它们的重要性,还需要考虑它们的漂移。对于高漂移的人来说,把它们扔掉或改造它们,对于低漂移的人来说,在测试和工作时把它们考虑进去(正确)。

祝好运

你说的 "偶尔适用 "是什么意思?

要么是有某种已经被证明的流水线,要么就是空穴来风的猜测。

从理论上讲,将噪声作为一个单独的类并不能改善模型(它停留在模型中,并没有去任何地方)。

关于漂移--这是基础知识,偏差-变异的权衡。
 
Maxim Dmitrievsky#:
你是否尝试过预测未来报价的分布?
 
mytarmailS#:
你有没有试过预测未来的报价分布?

我做过类似的事情,但我不明白这到底是怎么回事

请记住,我对未来固定长度的块进行了聚类,并预测了聚类的数量。每个集群都有不同的分布,每个集群都有不同的策略。在Traine身上成功了,在新的数据上,如果你正面做,就会失败。
 
Maxim Dmitrievsky#:

做过类似的事情,但不明白是什么原因。

记住,我对未来的固定长度的块状物进行了聚类,并预测了聚类的数量。每个集群都有自己的分布,每个集群都有自己的战略。这在特雷恩身上是有效的,但在新的数据上,如果你直接这样做,就会失败。

我记得...

我有一个稍微不同的想法...

如果你能定性地预测未来的报价分布,比如说,未来的50根蜡烛,那么从这个分布中你可以抽取几千个序列,然后训练模型,这样一来,模型在理论上对新的50根蜡烛会有足够的作用...

 
我时常查看这个主题,同样的面孔,同样的模型讨论,也许有人有东西可以展示?
 
Farkhat Guzairov#:
我定期访问这个话题,面孔是一样的,讨论的模型也是一样的,也许有人有什么东西可以展示?
这不是一个需要解决的问题
原因: