交易中的机器学习:理论、模型、实践和算法交易 - 页 3318

 
Andrew, [26.10.2023 13:19]
特别是神经网络训练和一般机器学习中的停止标准是什么?

GPT Chat bot, [26.10.2023 13:19]
神经网络训练和一般机器学习中的停止标准取决于任务和学习算法。一些常见的停止标准包括:

1.达到足够低的误差:可以定义一个误差阈值,低于该值,模型就被认为达到了足够的准确度。当验证数据集或测试数据集上的误差达到这个值时,训练就会停止。

2.收敛:当模型在每个训练历元后或经过一定次数的迭代后不再有明显改善时,可以停止训练。这里可以使用多种标准,如历元间误差的变化、模型权重的变化或预测值的变化。

3. 超过时间限制:如果训练时间超过给定的阈值,则可以停止训练。

4.早期停止:可使用早期停止策略,即当模型在验证数据集或测试数据集上的性能在一定数量的训练历元后开始恶化时,训练即停止。

5. 达到最大历元数:可将训练限制为一定数量的历元,之后训练过程即停止。

6. 特定的迭代次数:

7. 训练数据集上的损失控制:如果训练数据集上的损失函数达到一定值或停止下降,则可以停止训练运行。

停止标准的选择取决于具体任务、可用数据和训练算法。通常建议结合使用不同的标准,以达到最佳效果。

Andrei, [26.10.2023 13:23]
我们是否可以说,学习是优化的本质,其目标是达到全局极值?

GPT Chat bot, [26.10.2023 13:23]
是的,我们可以说,机器学习中的学习可以被视为一个优化过程,其目标是达到全局极值。训练模型可以归结为找到一个参数(权重或系数)组合,使损失函数最小化或评价函数最大化。

损失函数是模型预测值与实际值之间差异的度量。目标是找到损失函数达到最小值(全局极值)的模型参数值,以实现模型的最佳预测能力。

随机梯度下降、遗传算法 或带电系统搜索等优化算法用于更新模型参数和寻找最优解。这些算法力求找到损失函数的全局极值或良好的局部极值,以实现最佳的模型性能。

因此,机器学习可被视为一种优化,其目标是找到能使损失函数最小并实现最佳模型性能的模型参数组合。
 
Andrey Dik #:

问 GPT,你什么时候必须停止学习?你自己还没有回答这个问题。

即使是你还没想过要问的问题,我也知道答案。继续吧。当你有建设性的意见时,我们再谈。

 
Aleksey Vyazmikin #:

所以我的推断是错误的,答案是否定的--你对过程有不同的理解。

不,我没有。是的,我没有不同的看法,只是出于某种原因,很多人不喜欢直呼其名。

至于什么时候停止学习,这是个方法论选择的问题,我只是强调,如果没有检测到全球性的极值,就不可能停止学习(好吧,或者强行停止学习,这也没有实际用处)。

 
Andrey Dik #:

为什么不呢?是啊,我并没有什么不同的想法,只是很多人出于某种原因不喜欢用正确的名字称呼事物。

至于什么时候停止学习,那是方法论的选择问题,我只是想强调,在没有检测到全球极值的情况下,停止学习是不可能的(好吧,或者说强行停止学习,这没有任何实际意义)。

早期断点并不是全局极值点。

 
Maxim Dmitrievsky #:

即使是你还没想过要问的问题,我也知道答案。继续吧等你有建设性了,我们再谈。

你又开始无礼了?你可能知道,但出于某种原因,你没有表现出来。

就像那个笑话

-"姑娘,你有胸部吗?

-我有

-你为什么不穿呢?

 
Maxim Dmitrievsky #:

早期断点不是全局极值点。

好吧你能解释一下这是什么意思吗?我们到底应该什么时候停止训练?第一次迭代时?第二次?第三次?第一百次?哪一次?
 
Andrey Dik #:

你又在无礼了吗?你可能知道,但你没有表现出来。

就像那个笑话

-"姑娘,你有胸部吗?

-有

-你为什么不穿?

我不需要向别人展示什么,我不是暴露狂如果我是你,我不会自负的

 
Maxim Dmitrievsky #:

我不需要向任何人展示任何东西,我不是一个暴露狂。如果我是你,我就不会自负。

我们谁自负了?

我知道你还没想过的问题的答案继续

 
Andrey Dik #:
好的你能解释一下这是什么意思吗?到底什么时候需要停止训练?第一次迭代时?第二次?第三次?第一百次?哪一次?

根据选定的停止标准

 
Maxim Dmitrievsky #:

我不需要向任何人展示任何东西,我不是露阴癖。如果我是你,我就不会自负。

如果你知道,就什么都别说。如果你 你知道,那就表现出来。这样不好看"我知道,但我不会告诉你们,你们都是傻瓜!"