交易中的机器学习:理论、模型、实践和算法交易 - 页 1487

 
Aleksey Vyazmikin:

这就是为什么我们在对预测因子及其数值进行排序时需要给出一个估计,不要取那些数值(范围)非常拥挤的预测因子,而要优先考虑那些分布在整个样本中的预测因子。

在回测中一切看起来都非常好)
,我想你需要一个统一的 转发?森林不知道任何关于在训练中前进的事情。
 
elibrarius
嗯,一切在回测中看起来都非常好)
我猜你需要一个统一的前锋?森林对训练中的前进一无所知。

评价的对象应该是参与培训的两个样本。

 
阿列克谢-维亚兹米 金。

评价的对象应该是参与培训的两个样本。

第二个是验证?
 

然后会有一个与验证图的拟合。尽管如果验证量比训练量大,它可能会起作用。在Ivan Butko的NS中,训练是在一个小的地块上进行的,而验证是在一个大几倍的地块上进行的。我们通常认为验证所有数据的15-25%,但在他的视频中约为80%。

 
elibrarius
第二个是验证?

是的,如果它适用。

一般来说,我认为样本越大越好--这是一个预测器稳健性的问题,而不仅仅是学习。

也许可以对数据进行预处理,只对那些并不罕见,但在整个样本中高度拥挤的预测值的范围 进行分组。

用-1来代替它们的常规,并禁止对它们做初始劈叉,至少要达到2-3的深度。

 
elibrarius:

然后会有一个与验证图的拟合。尽管如果验证量比训练量大,它可能会起作用。在Ivan Butko的NS中,训练是在一个小的地块上进行的,而验证是在一个大几倍的地块上进行的。在这里,我们通常认为变体的验证率为所有数据的15-25%,而在他的视频中约为80%。

不会有太多的配合,因为我们基本上不在验证上进行训练,我们只是从市场结构 上也获取额外的信息。

 
阿列克谢-维亚兹米 金。

是的,如果它适用。

一般来说,我认为样本越大越好--这是一个预测器稳健性的问题,而不仅仅是学习。

也许可以对数据进行预处理,只对那些并不罕见、但在整个样本中高度拥挤的预测值范围 进行分组。

用-1来代替它们的常规,并禁止在它们身上做初始分裂,至少要有2-3的深度。

太复杂了...标准的树状结构算法是简单而快速的。
阿列克谢-维亚兹米 金。

不会有特别的调整,因为我们不是在学习验证,我们只是从中获取关于市场结构的额外信息。

唯一可接受的变体是如果验证与培训相称或大于培训。
而我们走到这一步,我们只需要在训练图中包括验证。
 
圣杯

不,什么样的svm是这个 "Parzen窗口",内核平滑,和"准最佳 "的意义上,它几乎是完美的(米切尔有它的地方),但只有非常慢,每个迭代 - 排序整个数据集到一个新的点和与内核的卷积

我不确定它对非平稳性会有什么影响......如果它很慢,甚至很难进行蒙特卡洛。

我认为主要的问题是缩放/转换数据,循环提取,因为如果模式重复的话,即使是非线性回归或SVM也会有好的结果(在人工VR上)。

即选择模式的问题是牵强的
 
马克西姆-德米特里耶夫斯基

主要问题是缩放/转换数据,突出循环。

是的,没错。

 
elibrarius
太复杂了...唯一可接受的变体是如果验证与培训相称或大于培训。
而我们走到这一步,只需要在训练图中加入验证。

标准算法是为处理静止现象、封闭系统而设计的,因此在那里任何信息都被认为是先验有用的,没有从随机性的角度进行评估,而只是将其用于任务(按目标分类)的可能性,而我们有大量的噪音,我提出了一个合理的方法来对付它。

是的,在收集标本馆时,我已经远离了验证本身,留下了叶子评价的标准,包括时间地块上的效率。现在我有超过5万个来自所有树的变体的叶子,其中只有大约200个被选为信号,600个(每个信号叶子3个)被选为过滤器,大大改善了结果(在大多数时期)。

我们不得不假设,我们所能做的就是开发一种最适合数据的算法,因为我们不知道未来,即使基于现有的预测值,也有很多变化。而如果我们幸运的话,我们将设法找到一个将持续存在一段时间的模式,所以寻找这样的模式必须要有一定的标准,从逻辑上看,至少它应该是一个在整个样本中出现的模式。这就是为什么任务是创建一个算法,创造许多这样的模式,并从中建立树。

一个简单的例子,perootooting的保护将是可能的,检测一个样本的一部分,有一个明确的价格范围,在这个价格范围内,一个长的平局已经被固定 - 现在训练时,我们将得到两个价格范围(或来自上部TF的回调)来交易,但它是不可能的,平局将在未来固定在同一个地方。而用我建议的方法,在相同的特征下,更有可能发现罢工水平对事件的产生是有意义的。