交易中的机器学习:理论、模型、实践和算法交易 - 页 3295

 
Maxim Dmitrievsky #:

1.这与优化有什么关系?

2.反问 💩 神经网络是优化器还是近似器?

1.这里 "和什么有什么关系?

难道你还不知道神经网络是近似器吗?

 
Andrey Dik #:

1.在什么 "这里"?

2.难道你还不知道神经网络是一个近似器吗?

显然你不知道。否则你就不会想知道近似与它有什么关系了。

你把你的 "优化 "放到讨论中是为了什么?

你能明白这是两码事吗?
 
Andrey Dik #:

不,我们说的不是这个。
异质信息的积累只会阻碍 找到联系,从而产生许多矛盾。
但只有到了一定程度,到了一定程度,信息量 大到 足以形成一个整体,缺失的谜题本身才开始被还原

打个比方:如果你打磨两根由不同金属制成的棒材的平面,粗糙度越小,棒材之间的滑动效果就越好!

这很可能是自相矛盾的,但思路是清晰的

我同意

但不会突然增长,因为

- 不是每个人都那么固执,不会止步于已达到的智力发展水平。

- 商业秘密和高价格开始形成,这反过来又减少了供求关系

你的想法一开始就在你自己的图表上:低质量低数量。

为了达到高质量,要舍弃过多的信息
 
Maxim Dmitrievsky #:
显然你不知道。否则你就不会想知道近似与此有何关系了。 。

你把自己的优化加入讨论是为了什么?

你能意识到这是两码事吗?

我已经回答了你的问题,你为什么还要重复?

我的帖子是针对 Sanych 的帖子的,他提到了歪曲的 FF。

你能理解这一点吗?

你也不明白,没有优化就不可能有任何形式的学习,它们是不可分割的。

 
Andrey Dik #:

我已经回答了你的问题,你为什么还要重复?

我的帖子是针对 Sanych 的帖子的,他提到了歪曲的 FF。

你能理解吗?

你也不明白,没有优化,任何形式的学习都是不可能的,它们是不可分割的。

他写得很对,我们没有极值的概念。我们有新数据的近似和稳定标准,它们是模型误差的组成部分。
 
Renat Akhtyamov #:

这可能自相矛盾,但我明白你的意思

我同意

但不会突然增长,因为

- 不是每个人都那么固执,不会止步于已达到的智力发展水平。

- 商业秘密和高价格开始形成,这反过来又减少了供求关系

你的想法在一开始就出现在自己的图表上。

我举了抛光棒的例子,摩擦力有一个跳跃。

当然,有了信息,就不会出现跳跃,而是平滑过渡。

 
Maxim Dmitrievsky #:
他正确地写道,我们没有极值的概念。我们有新数据的近似标准和稳定标准,它们是模型误差的组成部分。

你是否会反复改进近似值和稳定性标准?

还是像童话故事里说的那样,一个富翁在灶台上躺了 30 年,突然站起来去踢每个人的屁股? 10 天后,不动关节的润滑剂就会消失,所以富翁将无法踢任何人,但 10 天后他也无法站起来。

不,你要反复练习,不断提高分数,这是一个优化的过程。

 
Andrey Dik #:

近似值和稳定性标准是迭代改进还是不迭代改进?

不,是迭代改进估计值,这是一个优化过程。

这是什么意思?当你增加多项式的度数时,会发生什么?
 
Maxim Dmitrievsky #:
这是什么意思?

你已经忘记你的问题了吗?
由此可见,您一直在进行优化,即使您认为自己没有。
您的标准是您通过优化方法改进的 FF。
 
Andrey Dik #:

你忘了你的问题了吗?
由此可见,您一直在进行优化,即使您认为自己没有。
您的标准是您用优化方法改进的 FF。
我没有问题。我写的是为什么大量特征在因果推理中效果不佳。

你写的是抽象出来的东西。