交易中的机器学习:理论、模型、实践和算法交易 - 页 2842

 
Aleksey Nikolayev #:

事实上,你们也在进行优化。你们发明了一些 "特征静止 "的标准,并根据这些标准选取最佳特征。这和历史上的优化是一样的,只不过是轮廓上的优化。

我们肯定应该发明一个 TS 鲁棒性标准,并根据它进行优化)我们将再次获得历史上相同的优化结果,但却是在不同的剖面

很好,就容差而言。

你去商店选裤子--根据你的身材进行优化!

在这里,我们谈论的是完全不同的东西--模型中可用优化算法的改进。我反对改进已经内置的优化算法。测试仪中有一种算法--很好。对这一算法的改进并不能让您从一个耗尽的 TS 中获得盈利。模型中的内置算法也是如此。

此外,在优化模型参数时应格外小心,因为您可以轻松地重新训练模型。

我想到了最重要的一点:优化与模型过度训练之间毫无疑问的联系。模型应该始终保持相当 "粗糙 "的状态,当然也不需要全局最优。


当我在寻找一个可接受的预测因子列表时,这就是裤子意义上的优化。但意义却完全不同:试图避免 "垃圾进-垃圾出"。这与试图找到全局最优的 "正确 "算法有本质区别。没有一个全局最优算法能在垃圾中找到有利可图的 TS。

 

马克西姆-弗拉基米罗维奇,你对量子聚类有什么看法?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

由于显而易见的原因,"优化 "一词在我们的论坛上名声不佳。因此,我们希望以某种方式远离它,甚至不使用这个词本身也是可以理解的。不过,MO 模型的任何训练几乎都是一种优化,因此不能讳疾忌医。

我不想伤害任何人,也不想教他们如何生活或解释如何做生意)我写这篇文章只是抱着一丝希望,希望元报价在 MT5 中实施 MO 时能考虑到我的意见。


因为它是脱口而出的......对于 "优化 "这一概念,人们的态度确实很消极。
我只想补充一点,人们应始终牢记,模型(TS)是主要的,优化是次要的。如果模型不起作用,优化就不会增加稳健性。
在现实中,有的 TS 可以在很大的参数范围内工作,但即使在这样的系统中,仍有一些最佳参数会最终带来更高的交易结果。 也就是说,根据其定义,优化不会使模型恶化。
在建立交易系统时,首先要重视模型,其次是评估标准,然后才是优化。
如果有人说优化是邪恶的,那就意味着他或她的排序是错误的。
只有理解了上述内容,才能明白,无论如何,没有优化是不可能实现 MO 的。
测试器和优化器捆绑在一起声名狼藉,就是因为用户做了一个该死的东西,并认为优化之后这个垃圾东西就能赚钱。
综上所述,我们可以得出这样的结论:优化算法会让成功的人更加成功(这适用于人类活动的任何领域),而不幸的是,让不快乐的人更加不快乐。原因很简单--优先级设置错误。
答案很简单,它们是根据车手的用户标准进行优化的。虽然汽车的一般特性是相同的,但调整允许您对汽车进行调整,例如在加速曲线上,另一位车手会喜欢直线上更高的速度。- 否则,你就会输,你就会有饥饿的孩子、愤怒的妻子以及其他所有失败的喜悦。

因此,成功的必要顺序是:汽车(TC)--调整标准(TC 的评估标准)--优化。
原则上不可能有其他正确的顺序。
 
我还想补充一点,优化算法首先是一种搜索算法,并不像很多人认为的那样,只能用来搜索 MASK 参数。
你可以做更复杂、更琐碎的事情。
 
Andrey Dik #:

也就是说,根据定义,优化不能降低模型 的性能。

这对于自动控制系统来说是正确的,但对于在金融市场上运行的具有非平稳过程的模型来说,绝对是不正确的。有一种绝对的罪恶,叫做 "过度训练"。这是最主要的弊端(仅次于输入垃圾),它使任何模型都无法运行。一个好的模型应该总是次优的,是对现实的某种粗化。我认为,正是全局最优对模型过度训练做出了特殊贡献。

 
还有一点很重要。
参数越少,模型在 "模型--标准--优化 "链条中的表现就越好。
模型-标准-优化、
随着自由度的增加,这是不好的,相反,标准或标准参数数量的增加会减少模型的自由度,起到一种 "边界 "的作用。
至于 AO 参数的数量,我指的是大量调整可能性的弊端,因为这会使 AO 的实际应用复杂化,不过,在了解自己在做什么的研究人员的娴熟操作下,它可以在优化的质量和速度方面获得额外的优势,在某种程度上,如果参数过多,还可以间接地减少模型的可变性。
 
СанСаныч Фоменко #:

对于自动控制系统来说,这个想法是正确的,但对于在金融市场上运行的模型来说,却绝对不是正确的,因为这些模型的运行过程并不是静止的。有一种邪恶,一种绝对的邪恶,叫做 "过度训练"。这是最主要的弊端(仅次于输入垃圾),它使任何模型都无法运行。一个好的模型应该总是次优的,是对现实的某种粗化。我认为,全局最优才是造成模型过度训练的特殊原因。


过度训练并不是错误使用优化的结果,而是错误选择模型评估标准的结果,错误发生在优化之前。
你应该责怪工兵、外科医生或他们的老师,而不是责怪学习(改进、优化)的可能性。
把非平稳性归咎于优化也是错误的。这意味着研究人员没有一个很好的非平稳序列模型。
 
如果我让读者陷入残酷的现实而冒犯了任何人,我深表歉意。
 

似乎使用了不同语境的概念。

例如,"高原 "是指影响模型逻辑的外部因素的获取方式的广泛设置。例如,预测器所依据的马什卡效率范围很广。

这里讨论的使用 MO 算法进行的优化与建立决策逻辑有关,而在策略测试仪中进行的优化通常与调整输入数据有关,而决策逻辑是已经规定好的,充其量具有可变性。

这两种优化是不同的--一种是改变空间,另一种是改变空间中的关系。

现在,我想知道先调整什么--标志/预测器,还是先寻找模型,然后在终端优化器中寻找最佳设置。不过,如果有大量输入数据,搜索设置是非常困难的。

是否有可能在训练过程中同时改变空间和逻辑?

SanSanych Fomenko, 我们应该期待采样吗?

 
Andrey Dik #:

过度训练不是错误使用优化的结果,而是错误选择模型评估标准的结果。错误发生在优化之前。
说模型应该训练有素,就像说训练有素的工兵或外科医生训练有素一样错误。
把非平稳性归咎于优化也是错误的。这意味着研究人员没有一个很好的非平稳序列模型。

我明白了。你对机器学习模型的了解还很肤浅。

这个链条的第一要素是预处理,这需要花费 50% 到 70% 的人力。这是决定未来成败的关键。

第二个环节是在训练集上训练模型。

第三个环节是在测试集上执行训练好的模型。如果模型在测试集上的表现至少相差三分之一,就需要重新训练模型。这种情况偶尔会出现,甚至更频繁。过度训练的模型是指过于精确的模型。抱歉,这是基础知识。