交易中的机器学习:理论、模型、实践和算法交易 - 页 3298

 
fxsaber #:

显然,在某种潜意识层面上,人脑仍然能够在极少量的数据中找到 "规律"。你不能说这是运气。这是一个谜。

事实上,交易者在同一时间以不同方式处理的信息要比 MO 模型处理的交易信息多得多。此外,大脑还掌握着各种与交易无关的知识,但却有助于解决交易任务。

 
Andrey Dik #:

在这里,你自己已经证明,经过假数据预先训练的大脑可以解决它之前不知道的特定问题。你却说你不需要额外的 "知识"。

我可没这么说,别再撒谎了 😀
符号不是知识。
 
Andrey Dik #:

你一直在混淆 "极值 "和 "尖峰"(函数没有导数的点)的概念。

即使是平面也有极值。

另外,FF 总是尽量选择使 FF 表面尽可能光滑,而全局极值是唯一的。唯一的全局极值一定是问题的唯一明确解。

如果 FF 的全局极值不是唯一的,甚至没有导数,则意味着 FF 的选择(模型评估标准)不正确。对这一点的误解导致了 "过拟合 "一词,而对这一点的误解则导致了寻找一些模糊的局部极值。

我们可以打一个比方:一个专家--医生--是训练出来的,资格考试(FF)是为认证而开发的,对于医生来说,不存在 "过度训练 "或 "过度拟合 "的概念,如果一个医生没有得到最高分--那就意味着他训练不足。而按照你的说法,一个好医生应该永远是一个训练不足的非科学家。

再说一次,"过度训练 "的问题在于错误地选择了评估模型的标准。论坛上似乎也有这样冷静的专家,但他们一次又一次地重复着同样的错误。制定正确的估算标准的重要性不亚于选择预测因子,否则根本不可能对模型进行充分的估算。

我预计会有很多人反对,没关系,我已经习惯了。如果这对某人有用--太好了,而那些没用的人--随便了,所以他们认为现在这样就很好。

超拟合模型与优化毫无关系。

引文的理想超拟合模型就是引文本身。就像其他任何建立模型的情况一样:不存在优化,对这种模型的估计是退化的,等等。

你没有理解 "模型 "一词的含义。例如,牛顿万有引力定律的模型。这是一个理想模型,适用于某些理想条件:真空,宇宙中没有其他物体。尽管如此,它还是能让你在实践过程中进行大量足够精确的计算。

而建立模型的全部问题就是找到一个与真实数据误差适合我们的模型。要知道,我们所看到的误差并不一定是未来的误差,而是在某个置信区间内的误差。因此,我们要寻找一个误差在实际中可接受范围内的模型。我们不需要极值。

 
Forester #:

1500 亿个神经元,不是每个神经元只有一个输出,而是有很多输出。人工智能在很长时间内都达不到这个智能水平,甚至永远达不到。
NS的智能水平被比作蟑螂--跑,咬--跑掉。

如果乘以人类的几十亿个体,当前的文明表明,在超小数据量上提出假设是可能的,这可以准确预测许多观察到的现象,甚至重现未观察到的现象。

 
Maxim Dmitrievsky #:
一次性学习。当一个大型预训练 NS(大脑)在左侧数据上进行预训练时,只需几个例子。如果模型已经初步掌握了世界的规律,那么它只需粗略地看一眼,就能轻松地点击一项新任务。

尤其是大型语言模型,就是这样针对新任务进行预训练的。但如果你强迫它长时间学习这些新示例,它就会开始忘记以前的经验,变得偏向新数据。
如果能绘制一张图表:"一次学习 "的质量与幼崽年龄的关系,那将会非常有趣。
 

Well....树具有优化功能。在选择最佳分割时。会对所有列/属性进行检查,然后进行不同的拆分,在分类时使用类杂质值最小的拆分,在回归时使用准确率最高的拆分。
对于随机森林 来说,到此为止。然后,我们只需简单地平均一组树的结果,这些树是随机给出的,例如 50%的特征。
,在 "剔除"(bousting)过程中,每一棵后续的树都会学习前一棵树的总和误差,并将该误差最小化。

,但这一切都隐藏在引擎盖下,用户无从知晓,也就无从谈起。这与我们在测试仪中通过搜索某些参数值来改变模型符号或教师(例如选择 TP/SL)的优化不同。

 
Maxim Dmitrievsky #:
标志不是知识

你以为标志是什么?
什么是知识?

你今天说优化与 MO 无关,然后又承认与 MO 有关。
等等,现在我们说到迹象是知识了。
 
fxsaber #:
如果能绘制一张图表:从幼崽年龄开始的 "单次学习 "的质量,那将会非常有趣。

NS大脑很可能受到环境(和数字)的巨大影响,尤其是在NS形成最迅速的时期--幼儿期。

比较同龄 NS 在不同任务中的表现会很有趣,一个 NS 在 2-3 岁时使用小工具,另一个 NS 在不使用小工具的情况下使用小工具。

也就是说,了解 NS 的哪种发展会对某些任务的解决产生积极/消极影响。


也许深思熟虑的 TC 发明不如肤浅的剪辑思维成功。

 
Andrey Dik #:

你认为标志是什么?
什么是知识?

你今天说优化与 MO 无关,然后又承认与 MO 有关。
等等,现在我们说到标志就是知识了。
我哪里说过优化与 IO 无关了?

请不要打断我。
 
Maxim Dmitrievsky #:
我在哪里说过优化与国防部无关?

请跟我来。

我就知道。
重新看看你说的话。