交易中的机器学习:理论、模型、实践和算法交易 - 页 3163

 
Ivan Butko #:

对试图通过教代理玩游戏来教外汇的看法。

有没有人试过这样做,有没有经验。
这是一个典型的 RL 或 deepRL 或优化问题。
本质上都是一样的,只是不同而已)。
 
Forester #:

我发现了另一个问题。
,我找到了一个很好的变体,即每周对 5000 行 M5(3.5 周)进行一次训练。我决定将所有数据转移到 300 行,比如不在周六训练,而是在周二训练。结果,OOS 模型从盈利变为不盈利。
这些新的 300 行(约占总数的 8%)带来了其他筹码和其他拆分,对于略有变化的数据变得更好。
在 50000 行中重复移动 300 行。这似乎只占新行的 0.8%。但 OOS 的变化也很明显,尽管没有 5000 行那么大。

总的来说,不仅窗口的大小适合,窗口的起始位置也适合。微小的偏移也会对结果产生很大影响。没有明显的特征,一切都在 50/50 ± 1-2% 的边缘。

这似乎是树木的通病--缺乏稳健性。

如果采用更复杂(就 matstat 而言)的分割规则,可能会有微弱的改善希望。这就像我最近给过一篇文章链接的 "差异树"。或者类似 CHAID 的卡方统计。

当然,这并不是灵丹妙药,也不是说这些具体的拆分规则实例对我们完全有效。但这是一个例子,说明可以而且应该创造性地处理分割规则。

从 matstat 中得到的主要思路是,当达到临界 p 值时停止树的生长,而不是出于某些左翼的原因。
 
Forester #:

我发现了另一个问题。
,我找到了一个很好的变体,即每周对 5000 行 M5(3.5 周)进行一次训练。我决定将所有数据转移到 300 行,比如不在周六训练,而是在周二训练。结果,OOS 模型从盈利变为不盈利。
这些新的 300 行(约占总数的 8%)带来了其他筹码和其他拆分,对于略有变化的数据变得更好。
在 50000 行中重复移动 300 行。这似乎只占新行的 0.8%。但 OOS 的变化也很明显,尽管没有 5000 行那么大。

总的来说,不仅窗口的大小适合,窗口的起始位置也适合。微小的偏移也会对结果产生很大影响。没有明显的特征,一切都在 50/50 ± 1-2% 的边缘。

什么模型?

 
СанСаныч Фоменко #:

什么型号?

木制的
 
Forester #:
木质
你需要找到一个有模式的核心集,并且只在这个核心集上进行训练。它可以在图形的任何片段上,可以通过超调找到。否则,噪音会让模型无法集中。现在的趋势是核心集--具有代表性的小样本。这种方法非常简单,而且效果显著。
 

有关树木和强化学习的有趣文章.....

https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/

============================

主旨

2.2 动机

简而言之,所提出的强化学习树(RLT)模型是一种传统的随机森林模型,具有选择分离变量和抑制噪声变量的特殊类型 这些特征是通过在每个内部节点实施强化学习机制而实现的。 让我们 先看一个棋盘格的例子,演示强化学习的影响:假定 X ~ uni f [ 0, 1 ] p E ( Y | x ) = i { i ( i i i ) = i ( i i i ) = E ( Y | x ) x ) = i { i ( i ( x (1) 0 .5) = i ( x (2) > 0.5)},因此 p 1 = 2,E(使用通常的随机森林估计这一结构 困难在于 两个强变量都没有显示出不显著的影响 从这两个变量中划分出的 直接 收益,即预测误差的减少,与从任一噪声变量中划分出的收益渐近相同。 因此, p 比较 大时 X (1) X (2) 不太可能 被选为 分离变量。 但是, 如果我们事先知道在 X (1) X (2 ) 进行分割会为以后的分割带来巨大的收益,那么我们就可以放心地强制 任一变量上进行分割,而不考虑当前的收益。

=========================

以及相应的 R 软件包

https://cran.r-project.org/web/packages/RLT/RLT.pdf

Reinforcement Learning Trees
Reinforcement Learning Trees
  • www.ncbi.nlm.nih.gov
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
 
Forester #:
木制的

具体叫什么名字?还是自制的?

我使用不同的 "木制 "模型已经很多年了,从来没见过这样的模型。

 
mytarmailS #: 但是,如果我们事先知道在 X (1) X (2) 进行拆分会给以后的拆分带来巨大的利益,我们就可以放心地强制 任何变量 进行拆分 而不考虑直接的回报。

我可以强制拆分,但我不知道应该通过哪个变量拆分 X1、X2 或 X157

 
СанСаныч Фоменко #:

具体叫什么名字?还是自制的?

我使用不同的 "木制 "模型已经很多年了,从来没见过这样的东西。

自制的。实验的可能性不受限制....。
 
Maxim Dmitrievsky #:
您需要找到一个具有某种模式的核心集,并仅在该核心集上进行训练。它可以是图的任何部分,通过枚举来搜索。否则,噪声会使模型无法集中。现在的趋势是核心集--具有代表性的小样本。这非常简单,而且能产生结果。

如何搜索?遍历所有大块(例如 100 x 5000 pp),看看该模型上的其他 50 万行对其他 50 万行的预测成功率如何?

原因: