交易中的机器学习:理论、模型、实践和算法交易 - 页 358 1...351352353354355356357358359360361362363364365...3399 新评论 СанСаныч Фоменко 2017.05.18 13:16 #3571 尤里-阿索连科。 我需要更具体一些。我可以给出两个相反的答案)。 你从哪里得到两个答案?一般的经验法则。 对静止序列的预测与对历史数据的预测相同非稳态序列的预测是不需要事先努力的有ARMA,有ARIMA,可以预测非平稳序列,但这种非平稳性是非常罕见的。有ARCH,有一堆不同的GARCH--为了能够预测未来的运动,所有这些都考虑到了不同种类的非平稳性。NS可以预测非平稳序列吗?如果是,哪些类型的非平稳性? Maxim Dmitrievsky 2017.05.18 13:18 #3572 尤里-阿索连科。一个新的高点(可能是一个低点) 之后是一个新的高点-- 是的,我也经历过,这些图表都很熟悉。你模拟--那里什么都没有--它是空的。也许你会很幸运。 这是在非持久性(反持久性系列)的情况下。而在持续性(持续)的情况下,一个新的最大值之后是一个新的最大值问题是,MA在低周期时被大量重绘,也就是说,它不能被应用。而如果我们把它向后推N条,信号就会被错过。 Yuriy Asaulenko 2017.05.18 13:31 #3573 马克西姆-德米特里耶夫斯基。 问题是,МА在低时期被严重透支,即无法应用。如果你把它拿回去做N个棒子,那么信号就已经错过了。有一天,我在玩MAs(不是简单的MAs,而是黄金MAs))。- 三阶滤波器。12个MAs的组别延迟为4分钟。我们甚至不谈EMAs和其他标准的--滞后性已经超出了尺度。一般来说,人们应该远离MA到回归线。但那里的计算延迟很大。如果我们考虑到1分钟的刻度,那将是致命的。 Vladimir Perervenko 2017.05.18 13:38 #3574 桑桑尼茨-弗门科。 有没有人知道这个问题的答案:NS是如何处理非平稳输入的? 神经网络并不关心它是静止的、非静止的还是根本没有的。这对它没有区别。特别是当涉及到分类时 Yuriy Asaulenko 2017.05.18 13:40 #3575 弗拉基米尔-佩雷文科。 神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是在涉及到分类的时候。 这就是我所说的答案之一)。 TheXpert 2017.05.18 14:03 #3576 弗拉基米尔-佩雷文科。 神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是当涉及到分类时 输入和输出被限制在数值范围内是非常理想的。 Yuriy Asaulenko 2017.05.18 14:13 #3577 组合器。 非常理想的是,输入和输出被限制在一个值域内。 这种问题甚至在进入NS之前就应该解决。NS一般不吃原始数据。 СанСаныч Фоменко 2017.05.18 14:24 #3578 弗拉基米尔-佩雷文科。 神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是在涉及到分类的时候。 那么,再培训的问题就全面展开了。 Maxim Dmitrievsky 2017.05.18 14:33 #3579 我甚至不知道我是否需要做得更好,在2.5个月内,如果我幸运的话,在5分钟的开盘价上就能达到20000%......你投进1千美元,预购一辆宾利车。如果你不走运,也没什么大不了的)。 Yuriy Asaulenko 2017.05.18 15:09 #3580 马克西姆-德米特里耶夫斯基。我甚至不知道我是否需要做得更好,在2.5个月内,如果我幸运的话,在5分钟的开盘价上就能达到20000%......你投进1千美元,预购一辆宾利车。如果你不幸运,你就是一个小损失)。 拼出来。))我想,如果不是一辆宾利,至少也是一辆带自动装置的标致车)。 1...351352353354355356357358359360361362363364365...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我需要更具体一些。我可以给出两个相反的答案)。
你从哪里得到两个答案?
一般的经验法则。
NS可以预测非平稳序列吗?如果是,哪些类型的非平稳性?
一个新的高点(可能是一个低点) 之后是一个新的高点-- 是的,我也经历过,这些图表都很熟悉。你模拟--那里什么都没有--它是空的。也许你会很幸运。
这是在非持久性(反持久性系列)的情况下。
而在持续性(持续)的情况下,一个新的最大值之后是一个新的最大值
问题是,MA在低周期时被大量重绘,也就是说,它不能被应用。而如果我们把它向后推N条,信号就会被错过。
问题是,МА在低时期被严重透支,即无法应用。如果你把它拿回去做N个棒子,那么信号就已经错过了。
有一天,我在玩MAs(不是简单的MAs,而是黄金MAs))。- 三阶滤波器。12个MAs的组别延迟为4分钟。我们甚至不谈EMAs和其他标准的--滞后性已经超出了尺度。
一般来说,人们应该远离MA到回归线。但那里的计算延迟很大。如果我们考虑到1分钟的刻度,那将是致命的。
有没有人知道这个问题的答案:NS是如何处理非平稳输入的?
神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是在涉及到分类的时候。
神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是当涉及到分类时
非常理想的是,输入和输出被限制在一个值域内。
神经网络并不关心它是否是静止的、非静止的或根本没有时间序列。这没有什么区别。特别是在涉及到分类的时候。
那么,再培训的问题就全面展开了。
我甚至不知道我是否需要做得更好,在2.5个月内,如果我幸运的话,在5分钟的开盘价上就能达到20000%......你投进1千美元,预购一辆宾利车。如果你不走运,也没什么大不了的)。
我甚至不知道我是否需要做得更好,在2.5个月内,如果我幸运的话,在5分钟的开盘价上就能达到20000%......你投进1千美元,预购一辆宾利车。如果你不幸运,你就是一个小损失)。