交易中的机器学习:理论、模型、实践和算法交易 - 页 2827

 
mytarmailS #:
https:// youtu.be/4yrp71kAZxU
.

那么,它有什么有趣之处呢?

 
在训练神经元时,你有多大把握它不会卡在本地的某个地方?
 
Andrey Dik #:
在训练神经元时,你有多大把握它不会被卡在本地的某个地方?

在神经元学中,分批训练有助于避免

在其他优化算法中,多次运行或分批运行也很有用,例如

再加上调整梯度步骤和其他技巧。

你仍然应该通过改变超参数来探索最佳值附近的情况,看看系统的生存能力如何。
 
分批优化算法?????)
 
Maxim Dmitrievsky #:

在神经元学中,分批进行有助于避免

在其他优化算法中,多次运行或分批运行也很有用,例如

再加上调整梯度步骤和其他技巧。

你还需要探索最佳值的邻域,然后通过改变超参数来了解系统的生存能力。

我不好意思问,什么是批次?

不,我是说,你怎么能确定神经元不会卡在某个地方? 它是否经过抗干扰测试?

 
Andrey Dik #:

我不好意思问,什么是批次?

不,我的意思是,你怎么能确定神经元不会卡在某个地方? 它是否经过抗卡测试?

在新数据上进行测试,比如提前停止。

当误差在训练数据上下降,而在新数据上开始增长时,它就会停止。只要它在新数据上没有开始增长,就说明它还没有卡住。

批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。

由于每个数据包中的最优值各不相同,因此平均值会低于所有数据包的最优值。

原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值?

如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。

如果你能从理论到实践再进一步的话:)

 
Maxim Dmitrievsky #:

对新数据进行测试,例如通过提前停止

当误差在训练数据上下降,而在新数据上开始增长时。只要误差没有在新数据上开始增长,就说明我们还没有陷入困境

批次是用于训练的数据包:没有必要一次性训练整个数据集,可以将数据分成若干数据包,在每次迭代时对其进行训练。

由于每个数据包中的最优值各不相同,因此所有数据包的平均值都会低于最优值。

原则上很难判断最优值是多少。如果样本发生了偏移,该怎么办? 如何在偏移的子样本中找到这个全局最优值?

如果这个问题原则上是关于优化算法的,那么你问得没错。但如果你开始移动样本,问题就比这个问题更多了。

如果你能从理论到实践再进一步的话:)

我没有办法检查抗干扰性。

你说的 "误差在训练的误差上下降,而在新的误差上开始增长 "并不是测试抗干扰性,而只是停止训练的标准。

我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段的问题。嗯,第一阶段的问题在这里还没有讨论过呢))))。

 
Andrey Dik #:

啊,我猜对了你的第一个答案,没有办法测试抗干扰性。

你说的 "训练过的误差减小,新的误差开始增大 "并不是测试抗干扰能力,而只是停止训练的标准。

我的问题是关于这里的人用来训练神经元的优化算法,而不是关于提高神经元在新数据上的稳定性,这是第二阶段。第一阶段在这里根本没有讨论过,))))。

嗯,好像是的,还没有讨论过。神经元中最流行的是亚当优化算法。也许你也可以测试一下
 
Maxim Dmitrievsky #:
嗯,算是吧,是的,没讨论过。在神经元中,最流行的是亚当优化算法。也许你也可以测试一下

就是这样,根本没讨论过。

在实践中,这意味着神经元会训练不足,也就是说,与使用抗干扰性更强的 AO 相比,新数据的误差会更早开始增长。