差分微积分,例子。 - 页 7

 
尼古拉-森科

下面是这种方法的一个可能的实施。没有重画和移位。 这是你的线的二阶导数。



是的。

而且我喜欢它。)))

谢谢你的参与。

 
阿列克谢-潘菲洛夫

我们将 "边走边看"。

多项式、样条式、高斯过程...
蓝点--训练,红点--测试。在蓝色的曲线上生成一堆任何曲线,检查
你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝色的...


 
Vizard_

多项式、样条式、高斯过程...
蓝点是训练点,红点是测试点。在蓝色的上生成一堆任意的曲率,测试
你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝调...



所以,还有......是的。神经网络是一个非常严重的诱饵。

"他们说从来没有人从那里回来过。" :))))

 
附加的文件:
 
阿列克谢-潘菲洛夫

所以,还有......是的。神经网络是一个非常严重的诱饵。

"他们说从来没有人从这里回来过。" :))))

当然,巫师除外。))
这个话题太有趣了,你甚至不想回去)。
 
尤里-阿索连科
这个话题太有趣了,我不想再回去了)。

)))

从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中它们被写成了另一种形式,显然已经适应了这些问题。

而且,如果我们谈论的是离散信息的分析,这也是合乎逻辑的。
 
阿列克谢-潘菲洛夫

)))

从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中,它们是以不同的形式写的,显然已经适应了任务。

我必须阅读该主题。我仍然不大明白RU是怎么回事。

我正在重读这个主题。我已经明白了一切,但我仍然不明白这个想法是什么。

历史上的分析函数可以用任何方法轻松地画出来,直到并包括第四导数。多项式回归是一个很好的近似值。

RU的优势是什么?

 

直接从等距点的差分方程中,也可以用另一种方式 导出 插值公式。

-3*y3 =1*y1-3*y2-1*y4

-6*y3 =1*y1-4*y2-4*y4+1*y5

-10*y3=1*y1-5*y2-10*y4+5*y5-1*y6

-15*y3 =1*y1-6*y2-20*y4+15*y5-6*y6 +1*y7

-21*y3=1*y1-7*y2-35*y4+35*y5-21*y6+7*y7-1*y8

不是把价格的最后一个值作为新信息,而是把它的最后一个增量(第一个差值) 作为新信息。

作为一个代码。

      a1_Buffer[i]=(open[i]-3*open[i+1]   -1*a1_Buffer[i+1 ]  )/(-3);
      a2_Buffer[i]=(open[i]-4*open[i+1]   -4*a2_Buffer[i+1 ]   +1*a2_Buffer[i+2 ]  )/(-6);
      a3_Buffer[i]=(open[i]-5*open[i+1]   -10*a3_Buffer[i+1 ]  +5*a3_Buffer[i+2 ]  -1*a3_Buffer[i+3 ])/(-10);
      a4_Buffer[i]=(open[i]-6*open[i+1]   -20*a4_Buffer[i+1 ]  +15*a4_Buffer[i+2 ]  -6*a4_Buffer[i+3 ]  +1*a4_Buffer[i+4 ])/(-15);
      a5_Buffer[i]=(open[i]-7*open[i+1]   -35*a5_Buffer[i+1 ]  +35*a5_Buffer[i+2 ]  -21*a5_Buffer[i+3 ]  +7*a5_Buffer[i+4 ]  -1*a5_Buffer[i+5 ])/(-21);

图中显示了图表的开头

而且你可以清楚地看到,这使我们能够在某个阶段处理自动震 荡。

当然,随后的差异也可以被看作是新的信息。

然而,在第一个差异上,我就不太清楚我们在画哪条代数线。而随着 "杠杆 "的增加,那里的一切都变得更加复杂。))))

附加的文件:
 
阿列克谢-潘菲洛夫

而由5,6度的多项式构建的线条(红色,黄色)则陷入类似于 共振或自动振荡 的状态,并逐渐积累起振幅。增加5和更大幂数的多项式的杠杆率并不能改变情况。

矩阵已经退化了:)在这种情况下,正则化被应用,度数被减少。
 

阿列克谢,告诉我:你的指标带有晦涩难懂的名词(多项式、牛顿二项式、差值、插值),与普通的移动平均线 有什么根本区别?更准确地说,它不同于周期为72的简单移动平均线,也不同于周期相同的移动平均线。

你的指标是黄色的。

来自周期为72的均线是紫色的。



附加的文件:
MaMa.mq4  7 kb