交易中的机器学习:理论、模型、实践和算法交易 - 页 1206

 
mytarmailS:

它已经被维特比算法分成了10个状态,本质上就像一个聚类。

我认为在做退货之前应该近似于价格,还是不做退货?

我不知道我是否应该接近它。

 
mytarmailS:

顺便说一下,如果有人想研究一下 "cmm",这里有一篇文章,有R语言的代码和例子

http://gekkoquant.com/2014/09/07/hidden-markov-models-examples-in-r-part-3-of-4/

顺便说一下,文章中的SMM状态是相当可解释的。

 
mytarmailS:

而且有一种依赖性...

我对回归者进行了 "SMM"(隐马尔可夫模型)训练,将其分为10个状态,并在没有老师的情况下进行教学,因此它自己划分了不同的分布。


状态分布。


在这里,我将回报按州分组,即每一行是一个独立的市场状态。

一些州(1,4,6,8,9)的观察值太少,所以根本无法考虑到它们

而现在我将尝试再生系列,也就是做一个累积的总和,如果在某些状态中发现一些趋势--方向上的规律性

我做了一个累积性的总结。

5号和7号州有一个稳定的结构,5号是海湾,7号是村庄。

非常有趣的分布和曲线。几乎所有的人都有不对称性。谢谢,我再看看,欣赏欣赏。

 
阿列克谢-尼古拉耶夫

顺便说一下,文章中的SMM状态是相当可解释的。

好吧,没有人争论,我只是把它写给了马克西姆

 
mytarmailS:

好吧,没有人争论,我只是在给马克西姆写这个问题。

圣杯 很快就会出版,请稍等......你可以稍后用现金分配的方式发送感谢信

狼吞虎咽 :)

https://www.mql5.com/ru/articles/4777

Применение метода Монте-Карло в обучении с подкреплением
Применение метода Монте-Карло в обучении с подкреплением
  • www.mql5.com
В предыдущей статье мы познакомились с алгоритмом Random Decision Forest и написали простого самообучающегося эксперта на основе Reinforcement learning (обучения с подкреплением).   Было отмечено основное преимущество такого подхода: простота написания торгового алгоритма и высокая скорость "обучения". Обучение с подкреплением (далее просто RL...
 
马克西姆-德米特里耶夫斯基

圣杯将很快出版,请稍等......带有现金分配的感谢信将在稍后寄出。

狼吞虎咽 :)

https://www.mql5.com/ru/articles/4777

很酷,感觉像是在窥视一个魔法实验室。ordermagic的价值只是证实了这种感觉)

 
阿列克谢-尼古拉耶夫

酷,感觉就像步入了一个神奇的实验室。ordermagic的价值只是证实了这种感觉)

我还有一些关于PCA、预测器搜索和其他东西的材料,我想我以后会再写一篇文章,在我去Python MO之前

 
马克西姆-德米特里耶夫斯基

还有更多关于PCA、超频预测器和其他东西的材料,我想我以后会再写一篇文章,然后再转到Python MO。

是的,这不会是不合适的。

 
FxTrader562:

谢谢你的文章。

所以你终于把 "蒙特卡洛 "和RDF结合起来了:)))

这篇文章似乎很有趣......我将看看它在实际测试中的效果如何,以及可以做哪些改进,并会向你更新......

如果你在这个版本中有任何需要解决的关键问题,以改善远期测试结果,那么你可以让我知道。

我想用shift_prob(代码中的移位概率)代替 "随机抽样",从不同的分布中进行抽样,这取决于当前的市场状态...你可以考虑一下

可以为它尝试不同的分配方案

 

对这里感兴趣,就遇到了

用R语言进行贝叶斯数据分析 的基础知识!

原因: