文章 "通过差异化和熵值分析来探索市场"记忆"" - 页 7

 
Alexander_K:

供参考:

我会读完的,谢谢。还有这篇文章的链接。

有趣的是,如果绘制随机增量图(当然是伪随机),那么从视觉上就无法与真实图形区分开来。但是,它们的密度也会随机变化。这似乎没什么用。虽然看起来是一样的:)

随机性

添加了包含工作示例的 Excel 文件

附加的文件:
 
Aleksei Stepanenko:


有趣的是,如果绘制的是随机增量(当然是伪随机),那么从视觉上就无法与真实图形区分开来。不过,它们的密度也会随机变化。这似乎没什么用。虽然看起来是一样的)

我检查了其中一个序列:

在最后,我不知道你有什么--一些故障,我没有分析过。

但总的来说,它是一个规则的高斯随机过程,方差没有任何周期性。

与真正的 BP 相比,差距简直是天壤之别。

 

非常有趣,连接处--表格末尾的几行应该删除。我已经做了修改。

Alexander_K:

与实际 BP 的差别非常大。

根据这种差异建立一个指标:)

 
Aleksei Stepanenko:

并根据这种差异建立一个指标:)

建立它 :)))))

要是这么简单就好了,这里有些人已经为这项任务奋斗了 15 年(!!!)。

当然,有人发现了它,并立即跳出了这个论坛。

 
Alexander_K:

15(!!!)年来,他们一直在努力完成这项任务。当然,有人发现了它,并立即从这个论坛跳了出来。

你好,涅槃!

 
Aleksei Stepanenko:

我会读完的,谢谢。还有这篇文章的链接。

有趣的是,如果绘制的是随机增量(当然是伪随机),那么从视觉上就无法与真实图形区分开来。但是,它们的密度也会随机变化。这似乎没什么用。虽然看起来是一样的)

添加了一个 Excel 文件,其中包含一个工作示例

如果您将此图表以分钟为单位加载到 mt5 中,并切换到 m15 或 n1 时帧,您将无法用肉眼将其与市场图表区分开来,我已经检查过了。
 
Maxim Romanov:
你用肉眼根本无法分辨市场上的产品。

谢谢,那太好了!

但图表中还是有区别的。Excel 公式产生的是随机增量,这些增量出现的频率大致相同。您可以直观地看到,在市场图表 中,有少量增量的幅度(运动)非常大。原来如此:)

 
Maxim Dmitrievsky:

我已经在 MO 主题中写道,据说可以利用反兰伯特变换一次性完成这个过程

但对我来说矩阵太复杂了https://www.hindawi.com/journals/tswj/2015/909231/

虽然有 R 和 Py 软件包

R 中有一个软件包 (LambertW),它可以完美地 "高斯化"。以下是欧元兑美元/M20 原始对数收益率和 "高斯化 "对数收益率的图表。

require(LambertW)
set.seed(12358)
y1 <- diff(log(pr$close), 3)*100
out <- Gaussianize(y1, return.tau.mat = TRUE)
x1 <- get_input(y1, c(out$tau.mat[, 1]))  # same as out$input
test_normality(tail(y1, 4000)) 
test_normality(tail(x1, 4000)) # Gaussianized 

kfc

图 1 原始对数收益率数据

pfgishftschiau

图 2 经过处理的数据

 
Vladimir Perervenko:

在 R 中有一个软件包 (LambertW),它可以完美地 "高斯化"。以下是欧元兑美元/M20 对数收益率原始图表和 "高斯化 "图表。

图 1 原始对数收益率数据

图 2 经过处理的数据

好吧,换算回 kotir,然后从文章中提取分数回报率,你就会明白亚历山大在反复强调什么了。想法

 
Vladimir Perervenko:

R 中有一个软件包 (LambertW),它可以完美地 "高斯化"。以下是欧元兑美元/M20 对数收益率原始图表和 "高斯化 "图表。

图 1 原始对数收益率数据

图 2 经过处理的数据

您能解释一下为什么要 "高斯 "报价,它有什么优势等,以及如何处理新数据? 如何使用这种方法处理新的 "输入 "数据?