交易中的机器学习:理论、模型、实践和算法交易 - 页 2594

[删除]  
mytarmailS#:
上帝的批评又来了
它就像在额头上一样多。
你必须要有逻辑性。
 
马克西姆-德米特里耶夫斯基#:
它就像在额头上一样。
使用你的逻辑。
说出你的观点,而不是这些废话--它不会工作,因为它不会工作。
[删除]  
mytarmailS#:
你提出一个观点,而不是这种废话--会成功的,因为它不会成功的
我明白了,连想象力都完全没有。OP不会涵盖整个模型变体的空间,你必须挑选她所优化的东西,自己决定最佳的变体。简而言之,到工厂去。你承担了一些事情,甚至没有粗略地了解你在做什么。而在提升的情况下,不可能建立OP,因为每次迭代的参数数量都会增加。当然你也没有听说过正规化的问题。你仍然认为,你能够通过自己的努力从质量上消除一些峰值。
 
马克西姆-德米特里耶夫斯基#:
我看,连幻想都完全没有。OP不会涵盖所有的模型变体空间,你必须选择,而且她已经优化了自己,在最好的变体上停下来。简而言之,到工厂去。你承担了一些事情,甚至没有粗略地了解你在做什么。而在提升的情况下,不可能建立OP,因为每次迭代的参数数量都会增加。
是啊...
阿列克谢一下子就明白了这是怎么做到的。
从第10次开始,你就不清楚了--为自己想一个名字吧)
[删除]  
mytarmailS#:
阿列克谢,我马上就知道该怎么做了......。
从第10次开始,你就不清楚了......自己编个名字吧)
来自durneh。这很容易做到,但毫无意义。好吧,导入你的沼泽)你最终只会得到不在当下重新学习的贝叶斯式MOs。
 
关于MO在交易中的应用,还有更多有趣的问题。例如,确定采取哪一个历史区间进行训练的算法。可能,它可以由一些通过交叉验证优化的元参数来设置。我应该读作普拉多)。
 
Aleksey Nikolayev#:
在交易中使用MO还有更有趣的问题。例如,确定采取哪一个历史区间进行训练的算法。也许它可以通过一些元参数来设置,这些元参数通过交叉验证进行优化。我需要阅读普拉多)。

我想写的是数据越多越好,然后我想起了我的一个小实验(虽然它没有足够的代表性,所以结果很可能是随机的,但尽管如此)。也就是说,有两个市场--根据我的主观估计,一个更有效,另一个更不有效。在效率较高的市场上训练出来的模型在这个市场上的OOS结果比在同一地区效率较低的市场上训练出来的模型更差。

[删除]  
往往模型在某一点上停止工作,不管托盘的大小。在不同长度的样本上进行训练,都在过去历史的某一点上停止工作。通过这一点,你可以看到一些模式的缺失或变化。

而如果你扩大了托盘,有了对该位置的覆盖,模型可能会从噪音中学习,在未来根本无法工作。将一个托盘增加到一个巨大的尺寸也是一种邪恶。

这样你就可以找到模型工作的区域长度,然后完全在其上进行训练,这将在一定程度上提高一段时间的性能。
 
Maxim Dmitrievsky#:
通常情况下,无论托盘大小,模型都会在一瞬间停止工作。我在不同长度的样本上进行了训练,所有的样本都在以前历史的某一点上停止工作。通过这一点,你可以看到一些模式的缺失或变化。

后来发现,你必须在尽可能短的路段上进行训练。因此,在改变模式后,新模式开始更快工作。

例如,如果你训练了12个月,那么在6个月后改变模式,新旧模式将各占一半。而在一年左右的时间里,将会有新模式的培训和交易。也就是说,几乎整整一年的时间里,这个模式一直在用一个过时的模式进行交易,而且很可能是亏损。

如果你训练了1个月,那么这个模式将在一个月内再次学会正确工作。

训练1周就好了...但我没有足够的数据。

 
Maxim Dmitrievsky#:
经常有模型在某一时刻停止工作,无论托盘大小。我在不同长度的样本上训练它们,它们都在过去历史的某一点上停止工作。通过这一点,你可以看到一些模式的缺失或变化。

而如果你扩大托盘以覆盖该位置,模型可能会从噪音中学习,并在未来完全不工作。将一个托盘增加到一个巨大的尺寸也是一种邪恶。

这样你就可以找到模型工作的区域长度,然后完全在其上进行训练,这将在一定程度上提高一段时间的性能。

关于噪音,是的。不过,我还没有考虑过在有噪音和无噪音的情况下拍摄历史部分。顺便问一下,在训练模型之前,你是如何理解这一点的?比如说,反复地?我训练了所有的部门,看着它表现最好的地方,离开这些部门,只先训练这些部门?这就产生了第二个问题,在实验验证之前可以称之为哲学问题:是让模型立即看到不同的区域,包括有噪音的,但平均从有噪音的数据中学习,还是从更干净的数据中学习,但一旦看到有噪音的数据就不学习。


而且,巨大的尺寸有什么问题呢?除了增加计算时间外?