交易中的机器学习:理论、模型、实践和算法交易 - 页 3321

 
Maxim Dmitrievsky #:

你认为这是标准的最小值/最大值?这与模型本身的全局最小值/最大值无关。

给我看图。

求你了

在标准图上显示你需要停止训练的位置。

 

那还远着呢、

我要试着写一首歌。

这很难说,我已经忘了,而且它很长,如果我们学会了它,音乐就是一段很长的旋律:

 
Andrey Dik #:

给我看看图表。

求你了

请在图上标出需要停止训练的标准。

在整个样本的标准最小值处,下一步是什么?

 
当你爱上一个新女孩时,你就会开始听女性音乐。
 

你明白我的意思吗?

真正的人工智能专家需要红色香烟和绿色古龙水。

 
Maxim Dmitrievsky #:

毛样本的最低标准,下一步是什么?

中了

现在你终于意识到,任何学习都不过是寻找全局极值的优化过程。也许你还没意识到,但你会意识到的。

不可能不是这样,你总是需要一个明确的标准来停止学习,而这个标准总是被设计成一个全局极值。通常会设计一个积分标准(并非总是如此)。你说出了积分标准。

 
Andrey Dik #:

中奖了

现在你终于意识到,任何学习都不过是寻找全局极值的优化过程。也许你还没有意识到,但你会意识到的。

不可能不是这样,你总是需要一个明确的标准来停止学习,而这个标准总是要设计成一个全局极值。通常设计一个积分标准(并非总是如此)。你说出了积分标准。

原帖说的是模型的复杂性,而不是极值。你只是在自说自话,忘记了我写的是什么。

也就是说,你又在进行 "偷梁换柱",或者说是为了迎合你的话而拉伸数据。

 
Andrey Dik #:

给我看看图表。

求你了

请在图上标出需要停止训练的标准。


这是一个典型的模型拟合误差图。

它逐渐接近于偏离轴线的某个值。

偏移量是目标-预测对的属性。通过优化特定模型的参数,可以获得一定的偏差,但任何优化都不可能跳过 "目标-预测因子 "属性。

如果偏差占误差的 45%,那么不可能通过改变模型参数来减少 10% 的偏差。任何优化都无济于事。

如果您能找到一对误差为 20% 的 "目标预测因子",那么无论您做什么,误差都将是 20%。

此外,如果在轨迹上如果在跟踪和验证时误差超过 5%,这就意味着您需要对这对 "目标预测因子 "进行有意义的研究。如果无法收敛,则必须放弃 "目标-预测因子 "对。

 
Maxim Dmitrievsky #:

原帖说的是模型的复杂性,而不是极端性。你只是在自说自话,忘记了我写的是什么。

也就是说,你又在 "π-hacking "了,或者说,你是在拉伸数据,以适应你的说法。

你说 "原本 "是什么意思?我们单独讨论了模型的复杂性,当时我们说,增加模型的复杂性只在某一点上有效,然后有效性就会下降,这是事实,是的,我没有反驳,而且我也证实了这一点。然后,我只是建议,如果大幅提高模型的复杂程度,也许可以显著提高效率,因为以前没有人这样做过(我知道为什么)。

很久以前我就说过,任何学习都是寻找全局极值的优化过程,但你否认了这一点(还有其他一些说法),说你不是 "优化者"。现在我已经清楚地告诉你,只有在找到全局极值时才能停止学习,否则根本无法停止学习(你不知道何时停止学习,你需要一个标准)。这就是为什么在学习到全局极值时,停止的元标准是优化的精髓所在。

认识到这一点,我们就有可能从新的角度来看待学习。

 
我的绘图有误,红色 Val 线应该在托盘上方。