交易中的机器学习:理论、模型、实践和算法交易 - 页 2786

 
Valeriy Yastremskiy #:

在马尔可夫过程中,不存在对当前值的依赖。

你的意思是,你在过渡矩阵中的位置,你就从那里开始。

 
Valeriy Yastremskiy #:

也就是说,如果因素较少,过程是可控的,但当因素达到一定数量后,就会开始出现碰撞和因素相加的概率结果。此外,各因素之间可能存在联系,也确实存在反馈。但马尔可夫过程没有这种联系。

它描述的是随机变量--怎么可能有联系(从逻辑上讲,没有联系)....。但如果有一个矩阵,就意味着我们可以在其中找到/描述/丢失/形成联系......我认为,描述事件影响下的状态...所有的统计数据都是一样的,但也会根据状态向前迈出一步(而正是这一步设定了每一时刻的统计序列的动态)......只是我也对整个马尔可夫模型中的 "随机性 "感到困惑(但这正是统计和 dim_reduction 的作用)。

 
JeeyCi #:

它描述的是随机变量 - 它在哪里有联系(从逻辑上讲,没有联系)...但既然有矩阵,就意味着有可能在矩阵中找到/描述/丢失/形成联系...关于描述事件影响下的状态...所有的统计数据都是一样的,但也会根据状态向前迈出一步(而就在这一步设定了每一时刻统计序列的动态)...只是我也对整个马尔可夫模型中的 "随机性 "感到困惑(但这正是统计和 dim_reduction 的作用)。

我给出了我对随机过程物理学的理解,对我来说,它有两种变体,在市场上,第一种是当因素的数量给出一个概率结果时,第二种是低频过程相对于高频过程的结果,在这种情况下,过程是不相互关联的。

从哲学上讲,我理解如果一个函数或一个过程与过去的值没有联系,那么这个过程就是随机的。但在现实世界中,情况通常并非如此。

在市场中,如果我们假定长时间的静止状态是来自强因素或强长时间因素的一些惯性力的影响,那么就有可能在噪声中将它们区分开来,而这并不是马尔可夫状态。将模型与 SB 模型区分开来的方法很符合逻辑。但如何处理呢?从逻辑上讲,如果存在非马尔可夫态,那么就有可能进行研究,如果没有差异,那么就没有研究的意义。))))))。

 
Maxim Dmitrievsky #:

什么叫你不知道,你在过渡矩阵中的位置,就是你要去的地方。

这很清楚,但这是一个随机的过程,因为现在的值和之前的值之间没有任何联系。))))))因此,是的,在矩阵中存在值)))))。

全球供应链是建立在将这种关系最小化到几乎为零的原则之上的)。

 

弗拉基米尔-佩列文科(Vladimir Perervenko )的归一化方法很奇怪--log2(x +1) 还是可以理解的、

从逻辑上讲,它增加了一些循环成分,问题是 为什么会有这样的成分?(我们去掉了循环,剩下的就是噪声)...

总的来说,tanh(x) 看起来像是在模仿神经网络处理来压缩序列...还是只是对行的另一种简单扭曲? - 它不太可能摆脱循环性,而且也不清楚是哪一种....。

总之,当然,很明显,时间序列=趋势+周期+噪声......

......但他可能是想通过这种变换来消除周期性(不知道 sin(2*pi*x) 是一种怎样的通用方法?)......我起初莫名其妙地认为,这是一种试图在序列中加入 d/df 元素的做法--以 消除周期性(通过将这一长度纳入符号系数本身?但用 sin 进行处理似乎仍是对根据符号值缩放的振幅下的数列的无理扭曲--我在统计处理 .... 中还没有遇到过这种情况。为什么不是 cos?-- 为什么不是 tanh?

也许作者可以解释这种特殊三角学的本质(通过对数消除偏斜分布的目的已经很清楚了)--但使用 sin、为什么不使用 cos 以及为什么要使用这种曲率的理由/假设是什么?(会加速符号变化吗- 甚至有时只是使其平滑)?


Renat Akhtyamov #:

你得到了向量,写了一篇论文,却被当作小玩意....。

有人可以写写你应该/可以如何认真对待这种变换,为什么?(除了想用对数摆脱不对称之外,我认为 ln 是最常见的)。

 
JeeyCi #:

弗拉基米尔 - 佩列文科(Vladimir Perervenko )只是用了一些奇怪的方法转换成正态--log2(x +1) 仍然可以尝试理解、

但这种怪兽的出现--通过sin(2*pi*x) 摆脱不对称--并不十分清楚它的作用--从逻辑上讲,它增加了一些循环成分,问题是,为什么会有这样的成分?(我们去掉了循环,剩下的就是噪声)....

一般来说,tanh(x) 看起来像是模仿神经网络处理来压缩序列......或者只是另一种简单的行扭曲? - 不可能去掉循环,也不清楚是哪一种....。

总之,当然,很明显,时间序列=趋势+周期+噪声......

......但他可能是想通过这种变换来消除周期性(不知道 sin(2*pi*x) 是一种怎样的通用方法?)......我起初莫名其妙地认为,这是一种试图在序列中加入 d/df 元素的做法--以 消除周期性(通过将这一长度纳入符号系数本身?但用 sin 进行处理似乎仍是对根据符号值缩放的振幅下的数列的无理扭曲--我在统计处理 .... 中还没有遇到过这种情况。为什么不是 cos?-- 为什么不是 tanh?

也许作者可以解释这种特殊三角学的本质(通过对数消除偏斜分布的目的已经很清楚了)--但使用 sin、为什么不使用 cos、为什么要使用这种曲率的理由/假设是什么?(会加速符号变化吗- 甚至有时只是使其平滑)?


谁能写出应该/可以如何认真对待这种变换,为什么?(除了试图用对数摆脱不对称之外,我认为 ln 是最常见的)。

我也从未理解过这种变换,但最有可能的是从其他变换中选择最佳变换。这种选择没有逻辑可言,通常是基于测试。

UHF 中滤波器和天线的形状最初并不是计算出来的。是的,在现实生活中,计算结果是通过文件)))))。

 
Valeriy Yastremskiy #:

我也一直不理解这种转换,但最有可能的是,这只是挑选者认为从其他转换中最好的一种选择。而这种选择通常是没有逻辑的,通常是基于测试。

UHF 中滤波器和天线的形状最初并不是计算出来的。是的,在现实生活中,计算结果是通过文件)))))。

您可以简单比较转换前后样本的直方图。如果最终的直方图更接近目标形式(例如正态分布或均匀分布),那么转换就非常合适)。与其绘制直方图,您可以考虑测试是否符合目标(分别为正态分布或均匀分布)。

板块不是呈抛物线形状吗?相当符合公式)

 
JeeyCi #:

弗拉基米尔 - 佩列文科(Vladimir Perervenko )只是用了一些奇怪的方法转换成正态--log2(x +1) 仍然可以尝试理解、

但这种怪兽的出现--通过sin(2*pi*x) 摆脱不对称--并不十分清楚它的作用--从逻辑上讲,它增加了一些循环成分,问题是,为什么会有这样的成分?(我们去掉了循环,剩下的就是噪声)....

一般来说,tanh(x) 看起来像是模仿神经网络处理来压缩序列......或者只是另一种简单的行扭曲? - 不可能去掉循环,也不清楚是哪一种....。

总之,当然,很明显,时间序列=趋势+周期+噪声......

......但他可能是想通过这种变换来消除周期性(不知道 sin(2*pi*x) 是一种怎样的通用方法?)......我起初莫名其妙地认为,这是一种试图在序列中加入 d/df 元素的做法--以 消除周期性(通过将这一长度纳入符号系数本身?但用 sin 进行处理似乎仍是对根据符号值缩放的振幅下的数列的无理扭曲--我在统计处理 .... 中还没有遇到过这种情况。为什么不是 cos?-- 为什么不是 tanh?

也许作者可以解释这种特殊三角学的本质(通过对数消除偏斜分布的目的已经很清楚了)--但使用 sin、为什么不使用 cos、为什么要使用这种曲率的理由/假设是什么?(会加速符号变化吗- 甚至有时只是使其平滑)?


谁能写出应该/可以如何认真对待这种变换,为什么?(除了试图用对数摆脱不对称之外,我认为通常还是用 ln)。

只要我们还停留在三角函数的推理层面或其他任何层面上,就不存在一个理由--不可能提出理由,因为这种理由的目的没有宣布,实现目的的标准也是未知的。


而 MO 的目标只有一个--减少拟合误差,或者说减少机器学习模型的预测误差。而且,前提是预测误差在未来不会有太大变化。


实现这一目标的主要障碍是金融序列的非平稳性。

给出的公式timeseries= trend+cycle+noise 不十分准确。在 GARCH 类型的模型中,这个公式更为精确,而且也很好地实现了这一目标,这类模型有上百个,但没有一个能最终解决这个问题,即如何尽可能精确地模拟非平稳性。

如果我们明确了目标和实现目标的标准,那么处理非平稳性的方法就根本不重要了,重要的是结果。无论如何,很明显,初始非平稳序列转化得越接近平稳,MO 模型的预测误差就越小,最重要的是,误差的波动也就越小。

弗拉基米尔-佩列文科 非常了解这一点,但他的文章教育意义大于实用价值--他只是展示问题并提供解决问题的工具,而且非常完整、系统,没有明显的漏洞。而问题和解决工具的选择都服从于目标:减少预测误差。

Vladimir Perervenko
Vladimir Perervenko
  • www.mql5.com
Профиль трейдера
 

Aleksey Vyazmikin 在评论中向作者 提出了 这样一个问题 - 找到了讨论主题的链接 - 链接已被删除!作者 弗拉基米尔-佩列文科(Vladimir Perervenko )躲起来了吗?)

 

我想到了局部决策树。它类似于 KNN 或局部回归(也可能适用于非平稳性)。其原理是,我们只将包含兴趣点的方框(其中至少包含给定数量的 K 个点)分成若干方框,而不关心其他方框。如果类与类之间的边界很清晰,而点又靠近边界,那么这种方法可能比 KNN 或局部回归更好。

我不知道这种方法是否有意义。