交易中的机器学习:理论、模型、实践和算法交易 - 页 3117

 
Maxim Dmitrievsky #:

这在历史上已经讨论过很多次了。第一个买入/卖出模型在新数据上进行测试。它出错的案例被归入 "不交易 "类,其余的归入 "交易 "类。第二个分类器在此基础上进行训练。我们会得到两个模型。其中一个预测方向,另一个预测是否应该退出交易。如果我们只通过一个模型来设置交易阈值,这就具有了灵活性。因为这两个模型可以通过一个模型改进另一个模型。我在上一篇文章中介绍了最初的方法。后来我改用了修改后的逻辑。

顺便说一句,这还是个未决问题,因为显然可以用不同的方法来改进彼此。

后来,我看到了科祖尔推理,他们也是用类似的方法进行推理的。

我不知道。

第二种模式是否可以使用这种过滤方法?

 
mytarmailS #:

我不知道。

第二种模式的过滤又有什么用呢?

在新数据上更好。

 
Maxim Dmitrievsky #:

在新数据的基础上

如果我们在最初的单一模型上设置概率阈值,比如

> 0.7 买入

< 0.3 卖出

这样,测试和跟踪都会变得更好,交易自然也会减少...

我很好奇,第二个模型真的有帮助吗?

有任何测试和比较吗?

 
Maxim Dmitrievsky 方向 的基本模型和一个预测获胜概率(交易或不交易)的元模型:

我们把第一个模型称为主模型,它用一条黑线将特征空间划分为买入/卖出。第二个是元模型,它将整个 特征空间划分为交易/不交易(红线)。

现在,让我们设想另一种变体,即有两个元模型,每个模型将买入和卖出类的不同 特征空间分别划分为交易/非交易(两条红线)。

一个 "需要思考 "的纯理论问题是,第二种方案是否更好?如果更好,为什么?请发表意见。

甚至可以向阿列克谢-尼古拉耶夫提出一个请求,即如何确定这种 "干预 "的效果。毕竟,我们将得到两个元模型的两个概率分布,可以通过角进行比较/评估/分配。

这是对问题模棱两可的表述。

事实证明,我们更相信第二个概率模型,而不是第一个模型,并将第二个模型作为第一个模型的过滤器。

或者,我们把这种情况视为 "AND "操作,即结果的交叉。


这是一个死胡同,我们已经走过了。


我从未见过任何模型能给出一个方向,因为如果它们给出了一个方向,即使是外部的,那也是方向概率正则化的结果。这就是为什么建议使用 R 的标准方法,即 "模型集合",将两个或多个模型的结果,即第一级模型的结果,用作第二级分类算法的预测因子。顺便说一句,如果你非常喜欢分类变量,也可以将它们输入分类器的输入端。如果可以按置信度对模型结果进行排序,则可以通过权重进行调整。也就是说,第二级是将第一级模型的分类结果作为预测因子的分类器。这种方法对于通过 0.5 以外的正则化得到的不平衡类非常有趣,例如,我们将分类器结果作为概率,按 0.4 和 0.6 的量化值进行划分。中间值将退出市场。

 
mytarmailS #:

如果我们在最初的单一模型上设置如下概率阈值

> 0.7 购买

< 0.3 卖出

那么在测试和跟踪时也会变得更好,交易自然会减少....

第二个模型真的能提供什么吗? 我想知道...

有没有进行过测试和比较?

试想一下,您通过交叉验证训练了第一个模型,并将所有错误的预测放到第二个模型中,从而避免了交易。你已经有了一个统计意义,即第一个模型在某些地方更经常出错,而在某些地方总是交易得很好。这就可以被第二个模型过滤掉。通过一个模型已经比较困难了。这种调整还有其他变种。
 
Maxim Dmitrievsky #:
试想一下,您通过交叉验证训练出了第一个模型,并将所有错误的预测都放入了第二个模型中,将其作为 "无交易 "模型。在统计意义上,第一个模型在某些地方更有可能出错,而第二个模型可以过滤掉这些错误。通过一个模型已经比较困难了。这种调整还有其他变种。

嗯,听起来很有道理。

 
mytarmailS #:

听起来很有道理。

即使第二个模型也是错的,但在这种情况下,它仍能以某种方式纠正第一个模型的错误,是的,有点像这样。在科祖尔推理中,他们的方法得到了更严格的证明。我想说是完全严谨的证明。

https://en.wikipedia.org/wiki/Frisch%E2%80%93Waugh%E2%80%93Lovell_theorem

 
Forester #:
我没试过。直觉上)但正如马克思所说:实践是检验真理的标准。如果在实践中对你有用--那就好)。

在这个过程中,我正试着转向第二种选择。

 
СанСаныч Фоменко #:

对问题的表述模棱两可。

事实证明,我们更相信第二个概率模型,而不是第一个模型,第二个模型被用作第一个模型的过滤器。

或者,我们把这种情况解释为 "AND "操作,即结果的交叉。


这是一条死路,我们已经走过了。


我没有遇到过任何可以给出方向的模型,因为如果它们给出了方向,即使是外部的方向,那也是方向概率正则化的结果。这就是为什么建议使用 R 的标准方法,即 "模型集合",将两个或多个模型的结果,即第一级模型的结果,用作第二级分类算法的预测因子。顺便说一句,如果你很喜欢分类变量,也可以将它们输入分类器。如果可以按置信度对模型结果进行排序,则可以通过权重进行调整。也就是说,第二级是使用第一级模型分类结果作为预测因子的分类器。这种方法对于通过 0.5 以外的正则化得到的不平衡类非常有趣,例如,我们将分类器结果作为概率,按 0.4 和 0.6 的量化值进行划分。中间值将退出市场。

集合(Ensemble)在意义上很接近,但在实施上却相去甚远。因为所提出的方法可以用不同的方式获得不同的结果,所以非常灵活。

我也做过集合,但没有成功。

 
Maxim Dmitrievsky #:
试想一下,您通过交叉验证训练出了第一个模型,并 将所有错误的预测都放入了第二个模型中,将其作为 "无交易"模型。在统计意义上,第一个模型在某些地方更有可能出错,而第二个模型可以过滤掉这些错误。通过一个模型已经比较困难了。这种调整还有其他变种。

我完全不清楚错误过滤的概念。

如果模型的预测结果是 50/50,那么把坏的 50 个扔掉,剩下的就能预测出 100% 的结果?这只是超级学习,别无其他。


分类误差的产生是由于相同的预测值在某些情况下预测正确,而在另一些情况下预测不正确,而这个问题只能在过滤预测值与目标变量之间的 "关系强度 "阶段才能消除,完全不可能,上帝愿意过滤预测值,并以此为代价将分类误差降低 10%。