简而言之,所提出的强化学习树(RLT)模型是一种传统的随机森林模型,具有选择分离变量和抑制噪声变量的特殊类型 。 这些特征是通过在每个内部节点实施强化学习机制而实现的。 让我们 先看一个棋盘格的例子,演示强化学习的影响:假定 X ~ uni f [ 0, 1 ] p 和 E ( Y | x ) = i { i ( i i i ) = i ( i i i ) = E ( Y | x ) 。 x ) = i { i ( i ( x (1) 0 .5) = i ( x (2) > 0.5)},因此 p 1 = 2,E(使用通常的随机森林估计这一结构 的 困难在于 , 两个强变量都没有显示出不显著的影响 。 从这两个变量中划分出的 直接 收益,即预测误差的减少,与从任一噪声变量中划分出的收益渐近相同。 因此, 当 p 比较 大时 , X (1) 或 X (2) 都 不太可能 被选为 分离变量。 但是, 如果我们事先知道在 X (1) 或 X (2 ) 上 进行分割会为以后的分割带来巨大的收益,那么我们就可以放心地强制 在 任一变量上进行分割,而不考虑当前的收益。
In this paper, we introduce a new type of tree-based method, reinforcement learning trees (RLT), which exhibits significantly improved performance over traditional methods such as random forests (Breiman, 2001) under high-dimensional settings. The innovations are three-fold. First, the new method implements reinforcement learning at each...
对试图通过教代理玩游戏来教外汇的看法。
有没有人试过这样做,有没有经验。我发现了另一个问题。
总的来说,不仅窗口的大小适合,窗口的起始位置也适合。微小的偏移也会对结果产生很大影响。没有明显的特征,一切都在 50/50 ± 1-2% 的边缘。,我找到了一个很好的变体,即每周对 5000 行 M5(3.5 周)进行一次训练。我决定将所有数据转移到 300 行,比如不在周六训练,而是在周二训练。结果,OOS 模型从盈利变为不盈利。
这些新的 300 行(约占总数的 8%)带来了其他筹码和其他拆分,对于略有变化的数据变得更好。
在 50000 行中重复移动 300 行。这似乎只占新行的 0.8%。但 OOS 的变化也很明显,尽管没有 5000 行那么大。
这似乎是树木的通病--缺乏稳健性。
如果采用更复杂(就 matstat 而言)的分割规则,可能会有微弱的改善希望。这就像我最近给过一篇文章链接的 "差异树"。或者类似 CHAID 的卡方统计。
当然,这并不是灵丹妙药,也不是说这些具体的拆分规则实例对我们完全有效。但这是一个例子,说明可以而且应该创造性地处理分割规则。
从 matstat 中得到的主要思路是,当达到临界 p 值时停止树的生长,而不是出于某些左翼的原因。我发现了另一个问题。
总的来说,不仅窗口的大小适合,窗口的起始位置也适合。微小的偏移也会对结果产生很大影响。没有明显的特征,一切都在 50/50 ± 1-2% 的边缘。,我找到了一个很好的变体,即每周对 5000 行 M5(3.5 周)进行一次训练。我决定将所有数据转移到 300 行,比如不在周六训练,而是在周二训练。结果,OOS 模型从盈利变为不盈利。
这些新的 300 行(约占总数的 8%)带来了其他筹码和其他拆分,对于略有变化的数据变得更好。
在 50000 行中重复移动 300 行。这似乎只占新行的 0.8%。但 OOS 的变化也很明显,尽管没有 5000 行那么大。
什么模型?
什么型号?
木质
有关树木和强化学习的有趣文章.....
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
============================
主旨
2.2 动机
简而言之,所提出的强化学习树(RLT)模型是一种传统的随机森林模型,具有选择分离变量和抑制噪声变量的特殊类型 。 这些特征是通过在每个内部节点实施强化学习机制而实现的。 让我们 先看一个棋盘格的例子,演示强化学习的影响:假定 X ~ uni f [ 0, 1 ] p 和 E ( Y | x ) = i { i ( i i i ) = i ( i i i ) = E ( Y | x ) 。 x ) = i { i ( i ( x (1) 0 .5) = i ( x (2) > 0.5)},因此 p 1 = 2,E(使用通常的随机森林估计这一结构 的 困难在于 , 两个强变量都没有显示出不显著的影响 。 从这两个变量中划分出的 直接 收益,即预测误差的减少,与从任一噪声变量中划分出的收益渐近相同。 因此, 当 p 比较 大时 , X (1) 或 X (2) 都 不太可能 被选为 分离变量。 但是, 如果我们事先知道在 X (1) 或 X (2 ) 上 进行分割会为以后的分割带来巨大的收益,那么我们就可以放心地强制 在 任一变量上进行分割,而不考虑当前的收益。
=========================
以及相应的 R 软件包
https://cran.r-project.org/web/packages/RLT/RLT.pdf
木制的
具体叫什么名字?还是自制的?
我使用不同的 "木制 "模型已经很多年了,从来没见过这样的模型。
我可以强制拆分,但我不知道应该通过哪个变量拆分 X1、X2 或 X157
具体叫什么名字?还是自制的?
我使用不同的 "木制 "模型已经很多年了,从来没见过这样的东西。
您需要找到一个具有某种模式的核心集,并仅在该核心集上进行训练。它可以是图的任何部分,通过枚举来搜索。否则,噪声会使模型无法集中。现在的趋势是核心集--具有代表性的小样本。这非常简单,而且能产生结果。
如何搜索?遍历所有大块(例如 100 x 5000 pp),看看该模型上的其他 50 万行对其他 50 万行的预测成功率如何?