交易中的机器学习:理论、模型、实践和算法交易 - 页 962 1...955956957958959960961962963964965966967968969...3399 新评论 Igor Makanu 2018.05.28 23:59 #9611 马克西姆-德米特里耶夫斯基。我只是有输入价格,我不受芯片的影响:)主要是目标的选择。马克西姆-德米特里耶夫斯基。我不知道下一步该做什么,没有人想出任何主意,我懒得去想 想法? 你提供价格、价格的偏差、价格的对数....输出应该是什么?- 我认为,最大的报价机制,就是你能在小TF上找到的东西。 试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。 ;) Maxim Dmitrievsky 2018.05.29 00:06 #9612 伊戈尔-马卡努。 想法? 饲料中的价格,价格偏差,价格对数....以及输出应该是什么?- 我认为,最大的报价机制,这就是你可以在小的TFs上使用价格找到的东西。 试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。 ;)引用机制是一个单独的问题 :) 我想在5到15分钟的时间段内使用它。我已经在截图上显示,它捕捉到了一些与引用无关的规律性的东西。但它在振荡器上的工作时间并不长,最多只有2倍的痕迹。 看一下细目是很有意思的,我应该试试。 Ilya Antipin 2018.05.29 00:35 #9613 历史/未来=30000/1000。输入--收盘和开盘差异的时间序列:iClose(NULL, 0, i+j+1+Shift)-iOpen(NULL, 0, i+j+1+Shift),其中j是从0到99(共100件)。目标是条形图的颜色(0,1)。 在图表上只有OOS期(未来)。 没有扩散。进入订单的水平是0。 差价 - 2分。输入订单的水平 - 0。 差价 - 2分。输入订单的水平 - 0.1 差价 - 2分。进入订单的水平 - 0.15。 类之间的谓语分布。准确度 - 0.525。 Aleksey Vyazmikin 2018.05.29 02:31 #9614 伊利亚-安提平。 类之间的谓词分配。准确度为0.525。有些样本是很小的--我有10-20万个样本,如果我从1000个样本中抽取一个,很有可能会有更好的配对。 Maxim Dmitrievsky 2018.05.29 02:55 #9615 做出一个辉煌的事情是非常容易的。要达到制造天才事物的状态是很难的。Amedeo Modigliani :) 所以你必须尝试不同类型的草药 Dr. Trader 2018.05.29 09:08 #9616 马克西姆-德米特里耶夫斯基。嗯,有一个模型,火车在不同的修改中很稳定,有些是100%的工作,更多的是来自奥斯的火车,比如这里......(4个月的培训10个月的OOS),那就糟糕了 我不认为测试演示有什么意义,因为一切都已经很清楚了。是的,很遗憾你的演示已经消失了。这都是因为你在CB上看的太多了,尽管他带来了文章,其中说到CB选择模型是不可能的,而且在论坛上很多时候都写着同样的事情。 Aleksei Kuznetsov 2018.05.29 10:07 #9617 交易员博士。是的,你的演示已经消失了,这很可惜。这都是因为你在OOS上看得太多了,虽然在同一篇文章中写道,在OOS模型上不能选择,在这里的论坛上也多次写过同样的话。 下面是它的结果...我将从另一个主题中复制我对这个问题的推理/建议。 在我看来,估计模型的反馈有点多,这就是为什么我想知道你为什么只对这部分做选择。 是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍。毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。 只对训练图进行评估。 或所有地块的总和。 或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。 最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。 实际上你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4)。 也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%,那么我们将拒绝这个模型(San Sanich正在谈论这个问题)。并从其他方面做出选择。 文章 "深度神经网络 (第五部分)。 DNN Ivan Negreshniy 2018.05.29 10:40 #9618 elibrarius。 下面是它的结果...我将从另一个主题中复制我对这个问题的推理/建议。 在我看来,没有足够的OOS来评估这个模型,这就是为什么我想知道为什么你只通过这一部分来选择。 是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍。毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。 只对训练图进行评估。 或所有地块的总和。 或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。 最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。 原则上,你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4) 。 也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%--我们应该拒绝这样的模型(San Sanich正在谈论这个问题)。并从其他方面进行选择。 IMHO,除了总结错误的公式,我们还需要更多的比例,似乎有人在这里写到,各部分的错误应该相关,如Train <= Valid <= Test。 Aleksei Kuznetsov 2018.05.29 10:47 #9619 伊万-内格雷什尼。 IMHO,除了错误总结公式,我们还需要更多的比例,似乎有人在这里写道,各部分的错误应该是相关的,如Train <= Valid <= Test。 火车被训练误差降到最低,其他地区可能随机上下摆动。最主要的是,它不应该晃动得太厉害。 Ivan Negreshniy 2018.05.29 11:11 #9620 elibrarius。 火车是通过训练误差最小化的,其他部分可以随机悬空,或上或下。最主要的是不要悬空太多。而你自己,除了纯粹的机会之外,还有什么理由可以证明允许向下的偏差? 然后你的主要任务是什么,如果不是打击这种随机性,因为它否定了验证和OOS以及一般的MO的意义。) 1...955956957958959960961962963964965966967968969...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我只是有输入价格,我不受芯片的影响:)主要是目标的选择。
我不知道下一步该做什么,没有人想出任何主意,我懒得去想
想法?
你提供价格、价格的偏差、价格的对数....输出应该是什么?- 我认为,最大的报价机制,就是你能在小TF上找到的东西。
试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。
;)
想法?
饲料中的价格,价格偏差,价格对数....以及输出应该是什么?- 我认为,最大的报价机制,这就是你可以在小的TFs上使用价格找到的东西。
试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。
;)
引用机制是一个单独的问题 :)
我想在5到15分钟的时间段内使用它。我已经在截图上显示,它捕捉到了一些与引用无关的规律性的东西。但它在振荡器上的工作时间并不长,最多只有2倍的痕迹。
看一下细目是很有意思的,我应该试试。
历史/未来=30000/1000。输入--收盘和开盘差异的时间序列:iClose(NULL, 0, i+j+1+Shift)-iOpen(NULL, 0, i+j+1+Shift),其中j是从0到99(共100件)。目标是条形图的颜色(0,1)。
在图表上只有OOS期(未来)。
没有扩散。进入订单的水平是0。
差价 - 2分。输入订单的水平 - 0。
差价 - 2分。输入订单的水平 - 0.1
差价 - 2分。进入订单的水平 - 0.15。
类之间的谓语分布。准确度 - 0.525。
类之间的谓词分配。准确度为0.525。
有些样本是很小的--我有10-20万个样本,如果我从1000个样本中抽取一个,很有可能会有更好的配对。
做出一个辉煌的事情是非常容易的。要达到制造天才事物的状态是很难的。Amedeo Modigliani :)
所以你必须尝试不同类型的草药
嗯,有一个模型,火车在不同的修改中很稳定,有些是100%的工作,更多的是来自奥斯的火车,比如这里......(4个月的培训10个月的OOS),那就糟糕了
我不认为测试演示有什么意义,因为一切都已经很清楚了。
是的,很遗憾你的演示已经消失了。这都是因为你在CB上看的太多了,尽管他带来了文章,其中说到CB选择模型是不可能的,而且在论坛上很多时候都写着同样的事情。
是的,你的演示已经消失了,这很可惜。这都是因为你在OOS上看得太多了,虽然在同一篇文章中写道,在OOS模型上不能选择,在这里的论坛上也多次写过同样的话。
我将从另一个主题中复制我对这个问题的推理/建议。
在我看来,估计模型的反馈有点多,这就是为什么我想知道你为什么只对这部分做选择。
是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍。
毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。
只对训练图进行评估。
或所有地块的总和。
或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。
最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。
也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%,那么我们将拒绝这个模型(San Sanich正在谈论这个问题)。并从其他方面做出选择。实际上你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4)。
下面是它的结果...
我将从另一个主题中复制我对这个问题的推理/建议。
在我看来,没有足够的OOS来评估这个模型,这就是为什么我想知道为什么你只通过这一部分来选择。
是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍。
毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。
只对训练图进行评估。
或所有地块的总和。
或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。
最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。
也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%--我们应该拒绝这样的模型(San Sanich正在谈论这个问题)。并从其他方面进行选择。原则上,你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4) 。
IMHO,除了错误总结公式,我们还需要更多的比例,似乎有人在这里写道,各部分的错误应该是相关的,如Train <= Valid <= Test。
火车是通过训练误差最小化的,其他部分可以随机悬空,或上或下。最主要的是不要悬空太多。
而你自己,除了纯粹的机会之外,还有什么理由可以证明允许向下的偏差?
然后你的主要任务是什么,如果不是打击这种随机性,因为它否定了验证和OOS以及一般的MO的意义。)