交易中的机器学习:理论、模型、实践和算法交易 - 页 962

 
马克西姆-德米特里耶夫斯基

我只是有输入价格,我不受芯片的影响:)主要是目标的选择。

马克西姆-德米特里耶夫斯基

我不知道下一步该做什么,没有人想出任何主意,我懒得去想

想法?

你提供价格、价格的偏差、价格的对数....输出应该是什么?- 我认为,最大的报价机制,就是你能在小TF上找到的东西。

试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。

;)

 
伊戈尔-马卡努

想法?

饲料中的价格,价格偏差,价格对数....以及输出应该是什么?- 我认为,最大的报价机制,这就是你可以在小的TFs上使用价格找到的东西。

试图猜测什么将是新条形图 上的第一个更新(突破)High[1]或Low[1] - 如果你学会了预测,那么它就是一个利润,因为你已经知道价格运动的方向。

;)

引用机制是一个单独的问题 :)

我想在5到15分钟的时间段内使用它。我已经在截图上显示,它捕捉到了一些与引用无关的规律性的东西。但它在振荡器上的工作时间并不长,最多只有2倍的痕迹。

看一下细目是很有意思的,我应该试试。

 

历史/未来=30000/1000。输入--收盘和开盘差异的时间序列:iClose(NULL, 0, i+j+1+Shift)-iOpen(NULL, 0, i+j+1+Shift),其中j是从0到99(共100件)。目标是条形图的颜色(0,1)。

在图表上只有OOS期(未来)。

没有扩散。进入订单的水平是0。


差价 - 2分。输入订单的水平 - 0。

差价 - 2分。输入订单的水平 - 0.1

差价 - 2分。进入订单的水平 - 0.15。

类之间的谓语分布。准确度 - 0.525。


 
伊利亚-安提平


类之间的谓词分配。准确度为0.525。

有些样本是很小的--我有10-20万个样本,如果我从1000个样本中抽取一个,很有可能会有更好的配对。

 

做出一个辉煌的事情是非常容易的。要达到制造天才事物的状态是很难的。Amedeo Modigliani :)

所以你必须尝试不同类型的草药

 
马克西姆-德米特里耶夫斯基

嗯,有一个模型,火车在不同的修改中很稳定,有些是100%的工作,更多的是来自奥斯的火车,比如这里......(4个月的培训10个月的OOS),那就糟糕了

我不认为测试演示有什么意义,因为一切都已经很清楚了。

是的,很遗憾你的演示已经消失了。这都是因为你在CB上看的太多了,尽管他带来了文章,其中说到CB选择模型是不可能的,而且在论坛上很多时候都写着同样的事情。

 
交易员博士

是的,你的演示已经消失了,这很可惜。这都是因为你在OOS上看得太多了,虽然在同一篇文章中写道,在OOS模型上不能选择,在这里的论坛上也多次写过同样的话。

下面是它的结果...

我将从另一个主题中复制我对这个问题的推理/建议。

在我看来,估计模型的反馈有点多,这就是为什么我想知道你为什么只对这部分做选择。
是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍

毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。
只对训练图进行评估。
或所有地块的总和。
或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。

最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。
实际上你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4)。

也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%,那么我们将拒绝这个模型(San Sanich正在谈论这个问题)。并从其他方面做出选择。
 
elibrarius
下面是它的结果...

我将从另一个主题中复制我对这个问题的推理/建议。

在我看来,没有足够的OOS来评估这个模型,这就是为什么我想知道为什么你只通过这一部分来选择。
是的,它在特定情况下是有效的(你在所有环节都得到了很好的结果),但在我看来,这并不普遍

毕竟,你可能遇到的数据并不那么好。例如,该模型可能在训练图上被训练到40%的误差,然后,只是意外地在测试图上显示出30%的误差。但假设,第二个模型在两个部分都学到了高达35%的知识。第二种模式显然更好。但只选择测试图就会选择第一个。为了进行比较,有一些评估模型的选项。
只对训练图进行评估。
或所有地块的总和。
或者像Darch那样,(在提交验证数据时)通过Err = (ErrLeran * 0.37 + ErrValid * 0.63) - 这些系数是默认的,但它们可以被改变。

最后一个选项是最有趣的,因为它考虑到了两种误差,但验证图的权重很大。
原则上,你可以扩展这个公式,例如,Err = (ErrLeran * 0.25 + ErrValid * 0.35 + ErrTest * 0.4) 。

也许我们甚至应该通过delta误差进行选择,例如,如果ErrLeran和ErrTest相差超过5%--我们应该拒绝这样的模型(San Sanich正在谈论这个问题)。并从其他方面进行选择。
IMHO,除了总结错误的公式,我们还需要更多的比例,似乎有人在这里写到,各部分的错误应该相关,如Train <= Valid <= Test。
 
伊万-内格雷什尼
IMHO,除了错误总结公式,我们还需要更多的比例,似乎有人在这里写道,各部分的错误应该是相关的,如Train <= Valid <= Test。
火车被训练误差降到最低,其他地区可能随机上下摆动。最主要的是,它不应该晃动得太厉害。
 
elibrarius
火车是通过训练误差最小化的,其他部分可以随机悬空,或上或下。最主要的是不要悬空太多。

而你自己,除了纯粹的机会之外,还有什么理由可以证明允许向下的偏差?

然后你的主要任务是什么,如果不是打击这种随机性,因为它否定了验证和OOS以及一般的MO的意义。)