差分微积分,例子。 - 页 7 1234567891011121314...24 新评论 Aleksey Panfilov 2018.01.19 06:25 #61 尼古拉-森科。 下面是这种方法的一个可能的实施。没有重画和移位。 这是你的线的二阶导数。是的。而且我喜欢它。)))谢谢你的参与。 Vizard_ 2018.01.19 07:33 #62 阿列克谢-潘菲洛夫。 我们将 "边走边看"。 多项式、样条式、高斯过程... 蓝点--训练,红点--测试。在蓝色的曲线上生成一堆任何曲线,检查 你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝色的... Aleksey Panfilov 2018.01.19 07:53 #63 Vizard_。多项式、样条式、高斯过程... 蓝点是训练点,红点是测试点。在蓝色的上生成一堆任意的曲率,测试 你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝调...所以,还有......是的。神经网络是一个非常严重的诱饵。"他们说从来没有人从那里回来过。" :)))) 关于交易、自动交易系统和测试交易策略的论坛 从理论到实践 Vizard_, 2018.01.19 07:31 当然,巫师除外。)) Aleksey Panfilov 2018.01.30 17:41 #64 附加的文件: 2018_01_30_EMA_Polynom_p1.mq4 17 kb Yuriy Asaulenko 2018.01.30 18:28 #65 阿列克谢-潘菲洛夫。 所以,还有......是的。神经网络是一个非常严重的诱饵。"他们说从来没有人从这里回来过。" :))))当然,巫师除外。)) 这个话题太有趣了,你甚至不想回去)。 Aleksey Panfilov 2018.01.30 18:33 #66 尤里-阿索连科。 这个话题太有趣了,我不想再回去了)。))) 从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中它们被写成了另一种形式,显然已经适应了这些问题。 而且,如果我们谈论的是离散信息的分析,这也是合乎逻辑的。 Yuriy Asaulenko 2018.01.30 19:10 #67 阿列克谢-潘菲洛夫。))) 从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中,它们是以不同的形式写的,显然已经适应了任务。我必须阅读该主题。我仍然不大明白RU是怎么回事。 我正在重读这个主题。我已经明白了一切,但我仍然不明白这个想法是什么。 历史上的分析函数可以用任何方法轻松地画出来,直到并包括第四导数。多项式回归是一个很好的近似值。 RU的优势是什么? Aleksey Panfilov 2018.01.30 20:36 #68 直接从等距点的差分方程中,也可以用另一种方式 导出 插值公式。-3*y3 =1*y1-3*y2-1*y4-6*y3 =1*y1-4*y2-4*y4+1*y5 -10*y3=1*y1-5*y2-10*y4+5*y5-1*y6-15*y3 =1*y1-6*y2-20*y4+15*y5-6*y6 +1*y7-21*y3=1*y1-7*y2-35*y4+35*y5-21*y6+7*y7-1*y8 不是把价格的最后一个值作为新信息,而是把它的最后一个增量(第一个差值) 作为新信息。 作为一个代码。 a1_Buffer[i]=(open[i]-3*open[i+1] -1*a1_Buffer[i+1 ] )/(-3); a2_Buffer[i]=(open[i]-4*open[i+1] -4*a2_Buffer[i+1 ] +1*a2_Buffer[i+2 ] )/(-6); a3_Buffer[i]=(open[i]-5*open[i+1] -10*a3_Buffer[i+1 ] +5*a3_Buffer[i+2 ] -1*a3_Buffer[i+3 ])/(-10); a4_Buffer[i]=(open[i]-6*open[i+1] -20*a4_Buffer[i+1 ] +15*a4_Buffer[i+2 ] -6*a4_Buffer[i+3 ] +1*a4_Buffer[i+4 ])/(-15); a5_Buffer[i]=(open[i]-7*open[i+1] -35*a5_Buffer[i+1 ] +35*a5_Buffer[i+2 ] -21*a5_Buffer[i+3 ] +7*a5_Buffer[i+4 ] -1*a5_Buffer[i+5 ])/(-21); 图中显示了图表的开头。而且你可以清楚地看到,这使我们能够在某个阶段处理自动震 荡。 当然,随后的差异也可以被看作是新的信息。 然而,在第一个差异上,我就不太清楚我们在画哪条代数线。而随着 "杠杆 "的增加,那里的一切都变得更加复杂。)))) 附加的文件: 2018_01_30_EMA_Polynom_p1xv.21.mq4 17 kb Difference calculus, examples. From theory to practice 从理论到实践 Maxim Dmitrievsky 2018.01.31 05:37 #69 阿列克谢-潘菲洛夫。 而由5,6度的多项式构建的线条(红色,黄色)则陷入类似于 共振或自动振荡 的状态,并逐渐积累起振幅。增加5和更大幂数的多项式的杠杆率并不能改变情况。 矩阵已经退化了:)在这种情况下,正则化被应用,度数被减少。 Nikolai Semko 2018.01.31 06:43 #70 阿列克谢,告诉我:你的指标带有晦涩难懂的名词(多项式、牛顿二项式、差值、插值),与普通的移动平均线 有什么根本区别?更准确地说,它不同于周期为72的简单移动平均线,也不同于周期相同的移动平均线。 你的指标是黄色的。 来自周期为72的均线是紫色的。 附加的文件: MaMa.mq4 7 kb 1234567891011121314...24 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
下面是这种方法的一个可能的实施。没有重画和移位。 这是你的线的二阶导数。
是的。
而且我喜欢它。)))
谢谢你的参与。
我们将 "边走边看"。
多项式、样条式、高斯过程...
蓝点--训练,红点--测试。在蓝色的曲线上生成一堆任何曲线,检查
你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝色的...
多项式、样条式、高斯过程...
蓝点是训练点,红点是测试点。在蓝色的上生成一堆任意的曲率,测试
你喜欢的公制在红色的上,并选择最好的一个。你可以随机地删除一些蓝调...
所以,还有......是的。神经网络是一个非常严重的诱饵。
"他们说从来没有人从那里回来过。" :))))
关于交易、自动交易系统和测试交易策略的论坛
从理论到实践
Vizard_, 2018.01.19 07:31
所以,还有......是的。神经网络是一个非常严重的诱饵。
"他们说从来没有人从这里回来过。" :))))
这个话题太有趣了,我不想再回去了)。
)))
从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中它们被写成了另一种形式,显然已经适应了这些问题。
而且,如果我们谈论的是离散信息的分析,这也是合乎逻辑的。)))
从我所看到的关于神经网络的情况来看,似乎差分方程在那里存在得相当广泛,只是在解释中,它们是以不同的形式写的,显然已经适应了任务。
我必须阅读该主题。我仍然不大明白RU是怎么回事。
我正在重读这个主题。我已经明白了一切,但我仍然不明白这个想法是什么。
历史上的分析函数可以用任何方法轻松地画出来,直到并包括第四导数。多项式回归是一个很好的近似值。
RU的优势是什么?
直接从等距点的差分方程中,也可以用另一种方式 导出 插值公式。
-3*y3 =1*y1-3*y2-1*y4
-6*y3 =1*y1-4*y2-4*y4+1*y5
-10*y3=1*y1-5*y2-10*y4+5*y5-1*y6
-15*y3 =1*y1-6*y2-20*y4+15*y5-6*y6 +1*y7
-21*y3=1*y1-7*y2-35*y4+35*y5-21*y6+7*y7-1*y8
不是把价格的最后一个值作为新信息,而是把它的最后一个增量(第一个差值) 作为新信息。
作为一个代码。
图中显示了图表的开头。
而且你可以清楚地看到,这使我们能够在某个阶段处理自动震 荡。
当然,随后的差异也可以被看作是新的信息。
然而,在第一个差异上,我就不太清楚我们在画哪条代数线。而随着 "杠杆 "的增加,那里的一切都变得更加复杂。))))
而由5,6度的多项式构建的线条(红色,黄色)则陷入类似于 共振或自动振荡 的状态,并逐渐积累起振幅。增加5和更大幂数的多项式的杠杆率并不能改变情况。
阿列克谢,告诉我:你的指标带有晦涩难懂的名词(多项式、牛顿二项式、差值、插值),与普通的移动平均线 有什么根本区别?更准确地说,它不同于周期为72的简单移动平均线,也不同于周期相同的移动平均线。
你的指标是黄色的。
来自周期为72的均线是紫色的。