交易中的机器学习:理论、模型、实践和算法交易 - 页 3316 1...330933103311331233133314331533163317331833193320332133223323...3399 新评论 Andrey Dik 2023.10.26 13:08 #33151 Maxim Dmitrievsky #: 我不知道我心里在想什么,这又是胡说八道 已经有其他 MO 向你证实,你根本没有思考。 你还能绕多少圈子? 你为什么烦躁不安? 绿线是痕迹,红线是验证。带红圈的标记是验证误差图从下降到上升的地方,也就是 "全局极值"(Global Extreme)!- 这就是你必须停止训练的地方。你看,问题的答案很简单吧?任何学习的本质都是寻找全局极值的优化。任何 MO 方法都可以归结为这一点,即优化某个评估函数,使其达到全局极值(损失函数最小化或评估函数最大化)。但你不是优化师,怎么会呢? 即使你不刻意优化,MO 方法也会帮你优化。 Andrey Dik 2023.10.26 13:11 #33152 Maxim Dmitrievsky #: 大家是否证实了 Sanych 的错误解释,即老师是标记的同义词? 不,它们不一样,不是同义词。 虽然分数可以充当老师,但这取决于任务。但不可能把它们明确地等同起来。 Maxim Dmitrievsky 2023.10.26 13:13 #33153 Andrey Dik #:你为什么烦躁不安?绿线是轨迹,红线是验证。带红圈的标记是验证误差图从下降到上升的地方,也就是全局极值!- 这就是你必须停止训练的地方。你看,问题的答案很简单吧?任何学习的本质都是寻找全局极值的优化。任何 MO 方法都可以归结为这一点,即优化某个评估函数,使其达到全局极值(损失函数最小化或评估函数最大化)。但你不是优化师,怎么会呢? 即使你没有刻意去做,MO 方法也会帮你做到。 在您的案例中,这是重新训练模型的图形。在断点之后,复杂度的增加会导致过度训练的增加,这正是我们刚才所说的。 [删除] 2023.10.26 13:16 #33154 Valeriy Yastremskiy 数据结构 相关的任务。 任务举例: 有教师指导的学习:分类、回归、预测、欺诈检测、对象检测、机器翻译等。 无教师学习:聚类、降维(PCA、t-SNE)、关联规则、数据可视化等。 模型评估: 有教师的学习:通过将模型与已知标签进行比较,根据模型的预测或分类能力对其进行评估。评估可能包括准确率、F1-测量、均方根误差和其他指标。 无教师学习:由于没有已知标签进行比较,因此估算较为困难。评估可以基于对聚类质量的目测、与其他算法的比较或专家分析。 这两种学习方式在机器学习中都有应用,如何选择取决于具体任务和可用数据。有时也会使用混合方法,将有教师学习和无教师学习结合起来,以达到更好的效果。 显然,这里面有问题。 回到定义。 P.Z. 离结束不远了。 咦 Huh.有人顿悟了 lynxntech 2023.10.26 13:17 #33155 Andrey Dik #: 的确类似,但在密苏里州,这张图的显示和含义有所不同。) 我想知道您是否知道这一点。) Andrey Dik 2023.10.26 13:17 #33156 Maxim Dmitrievsky #: 这是在你的案例中重新训练的模型图。 为什么是 "我的情况"?每个人都一样。如果你在红圈之后继续训练,就会得到一个训练过度的模型。因此,请等待几次迭代,直到有效性在几次迭代后开始增长,停止训练并选择红圈为全局极值的结果。有些人可能会将结果进行 2 次、3 次、4 次或更多次迭代,但这并不会改变本质,因为这仍然需要找到全局极值。 Maxim Dmitrievsky 2023.10.26 13:18 #33157 Andrey Dik #: 为什么是 "我的"?它们都是这样的。如果在红圈之后继续训练,就会得到一个训练过度的模型。因此,你需要等待数次迭代,直到有效性在数次迭代中开始增长,然后停止训练,并选择红圈为全局极值的结果。有些人可以将结果进行 2 次、3 次、4 次或更多次迭代,但这并不会改变本质,你仍然需要找到这个全局极值。 在圆圈之前,你得到了一个重新训练的模型。 Andrey Dik 2023.10.26 13:20 #33158 Maxim Dmitrievsky #:... 到一定程度后,复杂性的增加会导致训练过度,而这正是我们刚才所说的。 这是一个追踪和验证图。复杂性与此无关。这是一个事实,无论你在 MO 中做什么,你都在寻找一个全局极端,你是一个优化者,无论你如何否认这一点。 Andrey Dik 2023.10.26 13:22 #33159 Maxim Dmitrievsky #: 你在圆圈前得到了一个重新训练的模型。 够了,你已经完全迷失了。要么就反过来证明,但不是用单词短语,而是用图画、解释。 Maxim Dmitrievsky 2023.10.26 13:26 #33160 Andrey Dik #: 够了,你完全搞砸了。要么反过来证明,但不是用一句话,而是用图画和解释。 这是三叶草和轴每次迭代的误差图。在每次迭代/回波之后,模型都会变得复杂。你没有画出 y 轴上圆周的误差是多少,以及 x 轴上有多少次迭代/振荡。如果是 0.5,那么模型在那里没有学到任何东西,然后就会开始重新训练。这就是为什么你的图表什么都没有。全局最大/最小误差为零。 1...330933103311331233133314331533163317331833193320332133223323...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我不知道我心里在想什么,这又是胡说八道
你为什么烦躁不安?
绿线是痕迹,红线是验证。带红圈的标记是验证误差图从下降到上升的地方,也就是 "全局极值"(Global Extreme)!- 这就是你必须停止训练的地方。你看,问题的答案很简单吧?任何学习的本质都是寻找全局极值的优化。任何 MO 方法都可以归结为这一点,即优化某个评估函数,使其达到全局极值(损失函数最小化或评估函数最大化)。但你不是优化师,怎么会呢? 即使你不刻意优化,MO 方法也会帮你优化。
大家是否证实了 Sanych 的错误解释,即老师是标记的同义词?
不,它们不一样,不是同义词。
虽然分数可以充当老师,但这取决于任务。但不可能把它们明确地等同起来。
你为什么烦躁不安?
绿线是轨迹,红线是验证。带红圈的标记是验证误差图从下降到上升的地方,也就是全局极值!- 这就是你必须停止训练的地方。你看,问题的答案很简单吧?任何学习的本质都是寻找全局极值的优化。任何 MO 方法都可以归结为这一点,即优化某个评估函数,使其达到全局极值(损失函数最小化或评估函数最大化)。但你不是优化师,怎么会呢? 即使你没有刻意去做,MO 方法也会帮你做到。
任务举例:
模型评估:
这两种学习方式在机器学习中都有应用,如何选择取决于具体任务和可用数据。有时也会使用混合方法,将有教师学习和无教师学习结合起来,以达到更好的效果。
显然,这里面有问题。
回到定义。
P.Z.
离结束不远了。
咦 Huh.有人顿悟了
的确类似,但在密苏里州,这张图的显示和含义有所不同。)
我想知道您是否知道这一点。)
这是在你的案例中重新训练的模型图。
为什么是 "我的"?它们都是这样的。如果在红圈之后继续训练,就会得到一个训练过度的模型。因此,你需要等待数次迭代,直到有效性在数次迭代中开始增长,然后停止训练,并选择红圈为全局极值的结果。有些人可以将结果进行 2 次、3 次、4 次或更多次迭代,但这并不会改变本质,你仍然需要找到这个全局极值。
...
这是一个追踪和验证图。复杂性与此无关。这是一个事实,无论你在 MO 中做什么,你都在寻找一个全局极端,你是一个优化者,无论你如何否认这一点。
你在圆圈前得到了一个重新训练的模型。
够了,你完全搞砸了。要么反过来证明,但不是用一句话,而是用图画和解释。