交易中的机器学习:理论、模型、实践和算法交易 - 页 2827 1...282028212822282328242825282628272828282928302831283228332834...3399 新评论 mytarmailS 2022.12.04 03:23 #28261 https://youtu.be/4yrp71kAZxU. Aleksey Vyazmikin 2022.12.04 05:10 #28262 mytarmailS #: https:// youtu.be/4yrp71kAZxU . 那么,它有什么有趣之处呢? Andrey Dik 2022.12.05 09:00 #28263 在训练神经元时,你有多大把握它不会卡在本地的某个地方? Maxim Dmitrievsky 2022.12.05 11:11 #28264 Andrey Dik #: 在训练神经元时,你有多大把握它不会被卡在本地的某个地方? 在神经元学中,分批训练有助于避免在其他优化算法中,多次运行或分批运行也很有用,例如再加上调整梯度步骤和其他技巧。 你仍然应该通过改变超参数来探索最佳值附近的情况,看看系统的生存能力如何。 mytarmailS 2022.12.06 09:53 #28265 分批优化算法?????) Andrey Dik 2022.12.06 10:25 #28266 Maxim Dmitrievsky #:在神经元学中,分批进行有助于避免在其他优化算法中,多次运行或分批运行也很有用,例如再加上调整梯度步骤和其他技巧。 你还需要探索最佳值的邻域,然后通过改变超参数来了解系统的生存能力。 我不好意思问,什么是批次? 不,我是说,你怎么能确定神经元不会卡在某个地方? 它是否经过抗干扰测试? Maxim Dmitrievsky 2022.12.06 10:31 #28267 Andrey Dik #:我不好意思问,什么是批次?不,我的意思是,你怎么能确定神经元不会卡在某个地方? 它是否经过抗卡测试? 在新数据上进行测试,比如提前停止。 当误差在训练数据上下降,而在新数据上开始增长时,它就会停止。只要它在新数据上没有开始增长,就说明它还没有卡住。 批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。 由于每个数据包中的最优值各不相同,因此平均值会低于所有数据包的最优值。 原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值? 如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。 如果你能从理论到实践再进一步的话:) Andrey Dik 2022.12.06 11:07 #28268 Maxim Dmitrievsky #:对新数据进行测试,例如通过提前停止当误差在训练数据上下降,而在新数据上开始增长时。只要误差没有在新数据上开始增长,就说明我们还没有陷入困境批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。由于每个数据包中的最优值各不相同,因此所有数据包的平均值都会低于最优值。原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值?如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。如果你能从理论到实践再进一步的话:) 我没有办法检查抗干扰性。 你说的 "误差在训练的误差上下降,而在新的误差上开始增长 "并不是测试抗干扰性,而只是停止训练的标准。 我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段的问题。嗯,第一阶段的问题在这里还没有讨论过呢))))。 Maxim Dmitrievsky 2022.12.06 11:10 #28269 Andrey Dik #:啊,我猜对了你的第一个答案,没有办法测试抗干扰性。你说的 "训练过的误差减小,新的误差开始增大 "并不是测试抗干扰能力,而只是停止训练的标准。我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段。第一阶段在这里根本没有讨论过,))))。 嗯,好像是的,还没有讨论过。神经元中最流行的是亚当优化算法。也许你也可以测试一下 Andrey Dik 2022.12.06 11:26 #28270 Maxim Dmitrievsky #: 嗯,算是吧,是的,没讨论过。在神经元中,最流行的是亚当优化算法。也许你也可以测试一下 就是这样,根本没讨论过。 在实践中,这意味着神经元会训练不足,也就是说,与使用抗干扰性更强的 AO 相比,新数据的误差会更早开始增长。 1...282028212822282328242825282628272828282928302831283228332834...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
https:// youtu.be/4yrp71kAZxU
那么,它有什么有趣之处呢?
在训练神经元时,你有多大把握它不会被卡在本地的某个地方?
在神经元学中,分批训练有助于避免
在其他优化算法中,多次运行或分批运行也很有用,例如
再加上调整梯度步骤和其他技巧。
你仍然应该通过改变超参数来探索最佳值附近的情况,看看系统的生存能力如何。在神经元学中,分批进行有助于避免
在其他优化算法中,多次运行或分批运行也很有用,例如
再加上调整梯度步骤和其他技巧。
你还需要探索最佳值的邻域,然后通过改变超参数来了解系统的生存能力。我不好意思问,什么是批次?
不,我是说,你怎么能确定神经元不会卡在某个地方? 它是否经过抗干扰测试?
我不好意思问,什么是批次?
不,我的意思是,你怎么能确定神经元不会卡在某个地方? 它是否经过抗卡测试?
在新数据上进行测试,比如提前停止。
当误差在训练数据上下降,而在新数据上开始增长时,它就会停止。只要它在新数据上没有开始增长,就说明它还没有卡住。
批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。
由于每个数据包中的最优值各不相同,因此平均值会低于所有数据包的最优值。
原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值?
如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。
如果你能从理论到实践再进一步的话:)
对新数据进行测试,例如通过提前停止
当误差在训练数据上下降,而在新数据上开始增长时。只要误差没有在新数据上开始增长,就说明我们还没有陷入困境
批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。
由于每个数据包中的最优值各不相同,因此所有数据包的平均值都会低于最优值。
原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值?
如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。
如果你能从理论到实践再进一步的话:)
我没有办法检查抗干扰性。
你说的 "误差在训练的误差上下降,而在新的误差上开始增长 "并不是测试抗干扰性,而只是停止训练的标准。
我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段的问题。嗯,第一阶段的问题在这里还没有讨论过呢))))。
啊,我猜对了你的第一个答案,没有办法测试抗干扰性。
你说的 "训练过的误差减小,新的误差开始增大 "并不是测试抗干扰能力,而只是停止训练的标准。
我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段。第一阶段在这里根本没有讨论过,))))。
嗯,算是吧,是的,没讨论过。在神经元中,最流行的是亚当优化算法。也许你也可以测试一下
就是这样,根本没讨论过。
在实践中,这意味着神经元会训练不足,也就是说,与使用抗干扰性更强的 AO 相比,新数据的误差会更早开始增长。