交易中的机器学习:理论、模型、实践和算法交易 - 页 3023 1...301630173018301930203021302230233024302530263027302830293030...3399 新评论 СанСаныч Фоменко 2023.04.12 10:36 #30221 Maxim Dmitrievsky #:这很容易实现自动化,无需人工干预即可运行上一篇文章中也展示了类似的算法。从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。而在第一个模型中只保留谷物这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。 我在上文证明了不能丢弃模型错误。 我想改变我的观点。 但为此目的,这是必要的。 在训练选择和训练选择之外对初始模型进行评估 评估训练选择之外的 "净化 "模型,该模型与前两个模型不匹配 可以吗? Maxim Dmitrievsky 2023.04.12 10:38 #30222 СанСаныч Фоменко #:上文已经证明,不能抹杀模型的误差。我想改变我的观点。但要做到这一点对训练选择和非训练选择初始模型的评估在训练选择之外估计一个与前两个模型不匹配的 "净化 "模型我们能做到吗?我在上面添加了几个屏幕用这种方法分离谷物和谷壳的算法可能不同,我将向你展示我是如何做的。虚线左边的是 OOS,它不以任何方式参与训练学习增量等简单符号 黄色曲线是报价图表本身,不要看它。但您可以利用它来了解模型在哪些情况下效果更好/更差 Maxim Dmitrievsky 2023.04.12 10:48 #30223 如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误而 OOS 的误差会逐渐减小,在这种情况下,r^2 会增大Iteration: 0, R^2: 0.10170503363002426 Iteration: 1, R^2: 0.3786110827222656 Iteration: 2, R^2: 0.36326063198923375 Iteration: 3, R^2: 0.4316690005974817 Iteration: 4, R^2: 0.71390099630815 Iteration: 5, R^2: 0.8178962191209952 从本质上讲,这类似于 fxsaber 中的 bestinterval,只是这里的 TS 是一次性准备好的 Rorschach 2023.04.12 11:08 #30224 Aleksey Vyazmikin #: 我觉得都列出来了。这是Kaggle和framevoc fast.ai创始人杰里米-霍华德(Jeremy Howard)的著作。 Fast.ai。 原版书 俄文版 免费版本 СанСаныч Фоменко 2023.04.12 11:14 #30225 Maxim Dmitrievsky #:如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误这样,OOS 误差就会逐渐减小,在这种情况下,r^2 就会增大。 从本质上讲,它类似于 fxsaber 中的 bestinterval,只不过这里的 TS 是一次性准备好的。 在我看来,这句话过于贴切。 什么是 "超出样本"? Maxim Dmitrievsky 2023.04.12 11:20 #30226 也许你把树弄成这样,然后再把规则拿出来,效果会更好。 Maxim Dmitrievsky 2023.04.12 11:20 #30227 СанСаныч Фоменко #:在我看来,这句话超级贴切。出样 "在哪里? 这已经不好笑了。 Maxim Dmitrievsky 2023.04.12 11:51 #30228 Aleksey Vyazmikin #: 我建议在 kolab 中用 python 树来制作这顶帽子,树叶可以选择,您可以把数据集放在那里。 如果你有任何更好/更坏的想法,只取最好的规则或通过一些过滤器,请提出建议。 我想通过两种方法对一个数据集进行比较。然后我们就会明白什么是好的了:) Aleksey Vyazmikin 2023.04.12 13:01 #30229 Maxim Dmitrievsky #:这很容易实现自动化,无需人工干预即可运行上一篇文章中也展示了类似的算法。从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。而在第一个模型中只保留谷物这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。例如,从糠中选择谷粒的第一次迭代(垂直虚线左侧--OOS):这里是第 10 次迭代: 是的,重点是一样的--最终使用能更好地描述预测因子的数据。 如何最有效地做到这一点仍是一个未决问题--每种方法都各有利弊。 Aleksey Vyazmikin 2023.04.12 13:07 #30230 Rorschach #:我觉得都列出来了。这是 Kaggle 和 framevoc fast.ai 创始人杰里米-霍华德(Jeremy Howard)的著作。Fast.ai。这本书的原文是俄语书籍免费版本 谢谢!我得找一本免费的俄语版--翻译员有时会给我做珍珠,并告诉我盐水的知识,这可能很有用:) 1...301630173018301930203021302230233024302530263027302830293030...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这很容易实现自动化,无需人工干预即可运行
上一篇文章中也展示了类似的算法。
从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。
而在第一个模型中只保留谷物
这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。
我在上文证明了不能丢弃模型错误。
我想改变我的观点。
但为此目的,这是必要的。
在训练选择和训练选择之外对初始模型进行评估
评估训练选择之外的 "净化 "模型,该模型与前两个模型不匹配
可以吗?
上文已经证明,不能抹杀模型的误差。
我想改变我的观点。
但要做到这一点
对训练选择和非训练选择初始模型的评估
在训练选择之外估计一个与前两个模型不匹配的 "净化 "模型
我们能做到吗?
我在上面添加了几个屏幕
用这种方法分离谷物和谷壳的算法可能不同,我将向你展示我是如何做的。
虚线左边的是 OOS,它不以任何方式参与训练
学习增量等简单符号
黄色曲线是报价图表本身,不要看它。但您可以利用它来了解模型在哪些情况下效果更好/更差如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误
而 OOS 的误差会逐渐减小,在这种情况下,r^2 会增大
从本质上讲,这类似于 fxsaber 中的 bestinterval,只是这里的 TS 是一次性准备好的我觉得都列出来了。这是Kaggle和framevoc fast.ai创始人杰里米-霍华德(Jeremy Howard)的著作。
Fast.ai。
原版书
俄文版
免费版本
如果一下子丢掉很多错误,教师就会退化(可能会有很多错误,而剩下的谷粒为零),因此要在每次迭代时逐步丢掉错误
这样,OOS 误差就会逐渐减小,在这种情况下,r^2 就会增大。
从本质上讲,它类似于 fxsaber 中的 bestinterval,只不过这里的 TS 是一次性准备好的。在我看来,这句话过于贴切。
什么是 "超出样本"?
在我看来,这句话超级贴切。
出样 "在哪里?
这已经不好笑了。
我建议在 kolab 中用 python 树来制作这顶帽子,树叶可以选择,您可以把数据集放在那里。
如果你有任何更好/更坏的想法,只取最好的规则或通过一些过滤器,请提出建议。
我想通过两种方法对一个数据集进行比较。然后我们就会明白什么是好的了:)
这很容易实现自动化,无需人工干预即可运行
上一篇文章中也展示了类似的算法。
从本质上讲,它是对模型错误的过滤,并将其归入一个单独的 "不交易 "类别,通过第二个模型更好地学习如何将谷物和谷壳区分开来。
而在第一个模型中只保留谷物
这与树形规则是一样的,只不过是从侧面。但规则之间应该相互掠夺和比较,而且在输出端已经有了一个精炼的 TS。
例如,从糠中选择谷粒的第一次迭代(垂直虚线左侧--OOS):
这里是第 10 次迭代:
是的,重点是一样的--最终使用能更好地描述预测因子的数据。
如何最有效地做到这一点仍是一个未决问题--每种方法都各有利弊。
我觉得都列出来了。这是 Kaggle 和 framevoc fast.ai 创始人杰里米-霍华德(Jeremy Howard)的著作。
Fast.ai。
这本书的原文是
俄语书籍
免费版本
谢谢!我得找一本免费的俄语版--翻译员有时会给我做珍珠,并告诉我盐水的知识,这可能很有用:)