交易中的机器学习:理论、模型、实践和算法交易 - 页 372

 
马克西姆-德米特里耶夫斯基


http://sci.alnam.ru/book_dsp.php

但第126页上没有图片


不是照片...

将该例子保存为图片,并上传到这里

 
Oleg avtomat:


不是照片...

并将该例子保存为图片,放在这里


是吗?

 
马克西姆-德米特里耶夫斯基


是吗?



该书是一个。

p.126

例5.4。

 
Oleg avtomat:


该书是一个。

p.126

例5.4。


是的,没有马上得到它......,这里


 
马克西姆-德米特里耶夫斯基


是的,我没有马上明白......,给你。



现在这很好;)
 
迪米特里


没有关联的地方就不可能有依赖性。相关性可以是线性的,也可以是非线性的,但如果有依赖性,就会有相关性。

在没有关联的情况下也会有关联--虚假的关联。

我没有删除这个主题中的任何一个帖子。

Bendat J., Pearsol A.

应用随机数据分析。译自英文:World, 1989.

在p.126

例子 5.4.不相关的因果随机变量。


 
摘自雷舍托夫的文章,解释他的RNN如何工作。

"本文详细讨论了神经网络过度训练的问题,确定了其原因,并提出了解决该问题的方法。

1.为什么神经网络会被重新训练?

神经网络重新训练的原因是什么?事实上,可能有几个原因。
  1. 训练样本中的例子数量不足以解决样本外的问题。
  2. 在不同的样本中,输入数据与输出数据的相关程度是不平等的,这在处理非平稳数据时是非常常见的情况。例如,在训练样本中,任何输入参数或几个输入参数与输出值的相关性都明显高于测试样本,或者更糟的是,不同样本中的相关系数的符号不同。这可以通过在训练神经网络 之前计算不同样本中所有参数的相关系数来轻松检查。而要摆脱这个缺点也很简单--训练实例在样本中随机分布。
  3. 输入参数与输出参数没有关系,即它们之间没有因果关系--它们没有代表性,因此没有什么可以训练神经网络。而 检查输入和输出之间的关联性,会显示出接近零的关联性。在这种情况下,你应该寻找其他输入数据来训练神经网络。
  4. 输入的数据彼此之间高度相关。在这种情况下,你应该留下与输出数据有最大相关性的输入数据,并删除与其余数据有良好相关性的其他数据。
上述所有过度训练的原因和消除它们的方法都是常识,因为它们以前在各种关于神经网络技术的文献或文章中都有描述。"
附加的文件:
RNN_MT5.zip  223 kb
 
阿利奥沙

德米特里,我很抱歉,但我怀疑你要么是想嘲弄我,要么是在胡闹,要么就是愚蠢,恕我直言......从一个微不足道的例子中,你难道看不出来,两个属性都与目标的相关性为零,但都是显著的,都不能放弃,线性依赖为零,而不是线性100%,也就是相关性可以为零,而数据集是完全可以预测的,这就是你的说法。

完全反驳了。


我当然是在犯傻了!"。

我在这个主题中清楚地写道:"我会诚实和坦率地说--几年前我诊断自己患有NS,并放弃了这种方法。因此,究竟如何为NS--对我来说很难说也许在NS中,有一些东西可以让你在不预选的情况下塞进手边的所有东西。对于DM的所有方法,我已经说明了"(с)

如果我写了好几次,说我不精通NS,不知道那里的事情是如何运作的,而出现的东西开始大喊大叫,并举出NS的例子--对我有什么抱怨?


我写得很清楚,很坦率。

1.维度会降低。

2.关于模型的准确性 - 我不知道!


但还是会有人开始蠢蠢欲动....。

 
Mihail Marchukajtes:
变量的关联性并不意味着预测的可能性。对子可以是相关的。这意味着它们是相关的,但不可能通过另一个来预测其中一个,因为它们是同时变化的,没有预期。这是就相关性而言的!!!!


别犯傻了。

如果你真的想胡闹,可以谷歌一下,比如说,蒸汽交易。

 
阿利奥沙
再次撒谎,没有 非线性相关关系 相关性是一个严格定义的数学结构,就像加法或余弦一样,在胡说八道之前至少要研究一下维基百科。


让我们像学校一样去了解它--从基础开始。什么是 "非线性相关 "以及如何计算。

http://metr-ekon.ru/index.php?request=full&id=412

原因: