交易中的机器学习:理论、模型、实践和算法交易 - 页 3297 1...329032913292329332943295329632973298329933003301330233033304...3399 新评论 Maxim Dmitrievsky 2023.10.11 14:32 #32961 Andrey Dik #:你没写优化,那你为什么到处打探?我又没给你写信。而且,学习是优化的一个特例,你总算记住了。 桑尼奇写的都对都是从我的留言开始的你写错了结果什么都没写 fxsaber 2023.10.11 14:32 #32962 Andrey Dik #: 我忍不住要与大家分享一个令人震惊的消息(对我来说太准确了):比 SSG 更强大的算法已经找到。 这的确是件好事。 Maxim Dmitrievsky 2023.10.11 14:35 #32963 当然,培训是一个比优化更广泛的概念。它使用自己的评估标准。这个主题叫做:MOE。 fxsaber 2023.10.11 14:39 #32964 Maxim Dmitrievsky #: 你混淆了实体。你在试图将优化与近似结合起来,反之亦然。 近似和优化是解决机器学习问题的不同方法。 如果我理解正确的话,算法交易中的近似是指 TS 本身的创建。我想要马丁--创建,我想要剥头皮--创建,我想要模式--创建,等等。您可以让 MO 方法创造一些东西。 优化--调整/研究已创建的 TS。 与人类不同的是,MO 也会通过数字计算器参与 TC 的创建,因此我们可以将近似和优化结合起来。明白了吗? Maxim Dmitrievsky 2023.10.11 14:49 #32965 fxsaber #:如果我理解正确的话,在算法交易中,近似是 TS 本身的创造。我想创建马丁,我想创建剥头皮,我想创建模式,等等。您可以指示 MO 方法来创建一些东西。而优化就是调整/研究已创建的 TS。与人类不同的是,MO 也通过数字计算器参与了 TC 的创建,因此我们可以将近似和优化结合起来。是这样吗? 完全正确 Maxim Dmitrievsky 2023.10.11 14:58 #32966 用高次多项式逼近会导致过度训练。误差方差会减小,但新数据的偏差会增大。这与增加大量特征是一样的。这只是基本原理。你不能调整重新训练过的模型,因为它不能很好地泛化。你无法进行 Kozul 推断,因为没有测试样本和对照样本的比较。在测试样本上,模型到处都是错的,不可能得出修正。把模型扔掉更容易。 fxsaber 2023.10.11 14:58 #32967 Maxim Dmitrievsky #: 没错 有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人类相比。 然而,原始人类已经证明,他们可以创造出非常好用的 TC。事实证明,不需要如此庞大的数据量就能创建一个有效的 TC。 举例来说,人类是如何建立起有效的剥头皮模型的,这对我来说是个谜。这几乎完全是在没有数字计算器的情况下完成的。 当时的情景一定是这样的: 我经常会看到某种平仓现象(傻傻地在屏幕上停留几天)。 我会尝试用原始的 TS 在上面赚钱。 它的耗电量不大。我应该再完善一下 TS。我看了一下交易历史 - 看起来有些东西可以改进。 它开始增加了一点。我重复第 3 点。 没有数字计算器。我只是看了第 1 点,然后就开始做了。这种方法的概率似乎为零,但不知何故却能奏效。某种有效的疯狂捅法。 显然,在某种潜意识里,人类大脑仍然能够在极少量的数据中找到 "模式"。你不能说这是运气。这是一个谜。 Maxim Dmitrievsky 2023.10.11 15:05 #32968 fxsaber #:有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人相比一样。然而,原始人类已经证明,他们可以创造出相当不错的工作 TC。事实证明,不需要如此庞大的数据量就能创建一个工作正常的 TC。举例来说,人类是如何建立起有效的剥头皮模型的,这对我来说是个谜。这几乎完全是在没有数字计算器的情况下完成的。这种情况显然是这样的: 我经常看到某种扁平化的现象(这几天我一直在屏幕上傻傻地磨)。 我会尝试用原始的 TS 在上面赚钱。 它的耗电量并不大。我应该再完善一下 TS。我看了一下交易历史 - 看起来有些地方可以改进。 它开始增加了一点。重复第 3 点。 没有数字计算器。我只看了第 1 点,然后就开始做了。这种方法的概率似乎为零,但不知何故却能奏效。某种有效的疯狂捅法。 一次性学习。当一个大型预训练 NS(大脑)在仅有少量实例的左侧数据上进行预训练时。如果模型已经初步掌握了世界的规律,那么它只需粗略地看一眼,就能轻松地点击一项新任务。尤其是大型语言模型,就是这样针对新任务进行预学习的。但是,如果你强迫它长时间学习这些新示例,它就会开始忘记以前的经验,变得偏向新数据。 Forester 2023.10.11 15:12 #32969 fxsaber #:有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人相比一样。 1500 亿个神经元,每个神经元的输出量不是 1,而是很多。人工智能不会很快或永远发展到这样的水平。 NS 的智能水平与蟑螂相比--跑,咬--跑掉。 Andrey Dik 2023.10.11 15:33 #32970 Maxim Dmitrievsky #: 一次性学习。当一个大型预训练 NS(大脑)在左侧数据上进行预训练时,只需几个例子。如果模型已经初步掌握了世界的规律,那么它只需粗略地看一眼,就能轻松地点击一项新任务。 在这里,你自己已经证明,经过左侧数据预训练的大脑可以解决它之前不知道的特定问题。你还说不需要额外的 "知识"。 1...329032913292329332943295329632973298329933003301330233033304...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我忍不住要与大家分享一个令人震惊的消息(对我来说太准确了):比 SSG 更强大的算法已经找到。
这的确是件好事。
你混淆了实体。你在试图将优化与近似结合起来,反之亦然。
近似和优化是解决机器学习问题的不同方法。
如果我理解正确的话,算法交易中的近似是指 TS 本身的创建。我想要马丁--创建,我想要剥头皮--创建,我想要模式--创建,等等。您可以让 MO 方法创造一些东西。
优化--调整/研究已创建的 TS。
与人类不同的是,MO 也会通过数字计算器参与 TC 的创建,因此我们可以将近似和优化结合起来。明白了吗?
如果我理解正确的话,在算法交易中,近似是 TS 本身的创造。我想创建马丁,我想创建剥头皮,我想创建模式,等等。您可以指示 MO 方法来创建一些东西。
而优化就是调整/研究已创建的 TS。
与人类不同的是,MO 也通过数字计算器参与了 TC 的创建,因此我们可以将近似和优化结合起来。是这样吗?
没错
有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人类相比。
然而,原始人类已经证明,他们可以创造出非常好用的 TC。事实证明,不需要如此庞大的数据量就能创建一个有效的 TC。
举例来说,人类是如何建立起有效的剥头皮模型的,这对我来说是个谜。这几乎完全是在没有数字计算器的情况下完成的。
当时的情景一定是这样的:
显然,在某种潜意识里,人类大脑仍然能够在极少量的数据中找到 "模式"。你不能说这是运气。这是一个谜。
有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人相比一样。
然而,原始人类已经证明,他们可以创造出相当不错的工作 TC。事实证明,不需要如此庞大的数据量就能创建一个工作正常的 TC。
举例来说,人类是如何建立起有效的剥头皮模型的,这对我来说是个谜。这几乎完全是在没有数字计算器的情况下完成的。
这种情况显然是这样的:
有趣的是,就数据量(报价)而言,人脑(作为神经网络)与 MO 相比,就像输卵管与人相比一样。
1500 亿个神经元,每个神经元的输出量不是 1,而是很多。人工智能不会很快或永远发展到这样的水平。
NS 的智能水平与蟑螂相比--跑,咬--跑掉。
一次性学习。当一个大型预训练 NS(大脑)在左侧数据上进行预训练时,只需几个例子。如果模型已经初步掌握了世界的规律,那么它只需粗略地看一眼,就能轻松地点击一项新任务。
在这里,你自己已经证明,经过左侧数据预训练的大脑可以解决它之前不知道的特定问题。你还说不需要额外的 "知识"。