交易中的机器学习:理论、模型、实践和算法交易 - 页 629 1...622623624625626627628629630631632633634635636...3399 新评论 Forester 2018.01.30 10:47 #6281 尤里-阿索连科。马克西姆,嗯,不要在MT优化器中训练网络。NS训练器和优化器是完全不同的算法,具有完全不同的优化标准。 如果你仍然使用你之前画的那个NS结构,那么就有点简单了--对市场来说很弱。我已经写过,我只有在达到15-20-15-10-5-1的结构时才获得成功。而这仅仅是针对一种类型的交易。我也完全用海金描述的方法做了一切,也就是说,没有什么新东西,没有什么技巧。 简单的结构 是训练不足的。你有没有试过不取层数,而是取一个层中的神经元数量?例如,15-200-1或15-200-20-1? 尤里-阿索连科。事实上,用于培训的数据不是很多,而是很多。在一个小的样本量上,NS不会得到任何有用的东西。那么你要拿多少数据呢?我带着86000根弦进行训练。 Yuriy Asaulenko 2018.01.30 10:56 #6282 elibrarius。1)你是否尝试过不取层数,而是取一个层中的神经元数?例如,15-200-1或15-200-20-1? 2)那你拿多少数据呢?我当时拿着86000线进行培训。1.我还没有试过。第一层中的20个已经很足够了。通过增加每层的神经元和层数来实现。 2.我在训练中大约有12000行,在N个epoch之间进行了中间洗牌。在一些历时之后,训练数据被之前没有参与训练的其他数据所取代。 Maxim Dmitrievsky 2018.01.30 11:07 #6283 阿列克谢-特伦特夫。我很抱歉对你的侮辱,但你应该重读你的帖子。它看起来相当含糊。 一般来说,你是对的,但只涉及神经网络的第一层。如果反馈到第二层和后续层,或者一般来说到平行网络层,你的声明将变得无效。 在这种情况下,马克西姆 应该考虑深化网络,把反馈带到隐藏层。 那又如何呢。 同样的事情。MLPs在很长一段时间内都是不相关的,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,主要是架构。我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。 我认为超过30个权重对优化器来说不是一个选项。 + 许多人忘记了有一个云,一般来说,与所有这些东西一起工作是很酷的,但你必须非常善于优化代码。 Aleksey Terentev 2018.01.30 11:17 #6284 马克西姆-德米特里耶夫斯基。我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。 我认为超过30个权重对优化器来说不是一个选项。 + 我认为很多人忘记了有一个云,通过这个云,所有这些东西都可以很有趣地工作,但你必须很好地优化代码。尝试复制输入层。 Yuriy Asaulenko 2018.01.30 11:18 #6285 阿列克谢-特伦特夫。 同样的事情。MLPs已经没有意义了,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,重要的是架构。 如果一个MLP能够解决一个任务,那么他们是否是最新的,有什么区别呢?特别是对于MLPs,你不必做太多努力--几乎到处都有它们的东西。 Maxim Dmitrievsky 2018.01.30 11:28 #6286 阿列克谢-特伦特夫。尝试复制输入层。 主题,并混合了重量 :) Aleksey Terentev 2018.01.30 11:30 #6287 尤里-阿索连科。 如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。我不是想让你屈服于任何东西。深入学习从MLP开始。 但是,当涉及到网络内的数据表示,它们的移动和转换时,关于激活、循环层、正则化、层的组合等问题就会自然而然地被提出来。现在这才是深刻的学习。 此外,对于深度学习来说,什么都有,到处都有。=) Maxim Dmitrievsky 2018.01.30 11:39 #6288 尤里-阿索连科。 如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。 只是在其他条件相同的情况下,深入学习可以快得多......比如说,不是10个小时,而是5分钟 :) Yuriy Asaulenko 2018.01.30 11:42 #6289 阿列克谢-特伦特夫。好吧,我不倾向于你的任何事情。深度学习仅仅从MLP开始。 但是,当涉及到网络内部的数据表示、它们的移动和转换时,关于激活、循环层、正则化、层组合等问题就自然而然地被提出来了。这是深入的学习。我明白,但我说的是别的东西。对于双管齐下的问题,你不需要高等数学,只需要算术。算术是否相关是另一回事。 也就是说,你必须首先定义问题,然后选择解决问题的方法。 至于大型和复杂的DM--DL,MLP肯定早就过了阶段。 Yuriy Asaulenko 2018.01.30 11:49 #6290 马克西姆-德米特里耶夫斯基。 只是,在其他条件相同的情况下,深层的人还能学得更快......比如说,不是10个小时,而是5分钟 :) 我不能确定,但在我看来,这些都是幻觉。只是从一般考虑。 1...622623624625626627628629630631632633634635636...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
马克西姆,嗯,不要在MT优化器中训练网络。NS训练器和优化器是完全不同的算法,具有完全不同的优化标准。
如果你仍然使用你之前画的那个NS结构,那么就有点简单了--对市场来说很弱。我已经写过,我只有在达到15-20-15-10-5-1的结构时才获得成功。而这仅仅是针对一种类型的交易。我也完全用海金描述的方法做了一切,也就是说,没有什么新东西,没有什么技巧。
简单的结构 是训练不足的。
你有没有试过不取层数,而是取一个层中的神经元数量?例如,15-200-1或15-200-20-1?
事实上,用于培训的数据不是很多,而是很多。在一个小的样本量上,NS不会得到任何有用的东西。
那么你要拿多少数据呢?我带着86000根弦进行训练。
1)你是否尝试过不取层数,而是取一个层中的神经元数?例如,15-200-1或15-200-20-1?
2)那你拿多少数据呢?我当时拿着86000线进行培训。
1.我还没有试过。第一层中的20个已经很足够了。通过增加每层的神经元和层数来实现。
2.我在训练中大约有12000行,在N个epoch之间进行了中间洗牌。在一些历时之后,训练数据被之前没有参与训练的其他数据所取代。
我很抱歉对你的侮辱,但你应该重读你的帖子。它看起来相当含糊。
同样的事情。MLPs在很长一段时间内都是不相关的,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,主要是架构。一般来说,你是对的,但只涉及神经网络的第一层。如果反馈到第二层和后续层,或者一般来说到平行网络层,你的声明将变得无效。
在这种情况下,马克西姆 应该考虑深化网络,把反馈带到隐藏层。
那又如何呢。
我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。
我认为超过30个权重对优化器来说不是一个选项。
+ 许多人忘记了有一个云,一般来说,与所有这些东西一起工作是很酷的,但你必须非常善于优化代码。
我同意,但如何将深度与所有这些技巧结合起来:)在优化器中的学习时间会有点长......但质量非常非常高,因为那里和交易一次发生。
我认为超过30个权重对优化器来说不是一个选项。
+ 我认为很多人忘记了有一个云,通过这个云,所有这些东西都可以很有趣地工作,但你必须很好地优化代码。
尝试复制输入层。
同样的事情。MLPs已经没有意义了,深度学习已经有很长一段时间的趋势了。而一个网络是很有能力处理异质数据的,重要的是架构。尝试复制输入层。
如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。
我不是想让你屈服于任何东西。深入学习从MLP开始。
此外,对于深度学习来说,什么都有,到处都有。=)但是,当涉及到网络内的数据表示,它们的移动和转换时,关于激活、循环层、正则化、层的组合等问题就会自然而然地被提出来。现在这才是深刻的学习。
如果MLPs能够解决一个问题,那么它们是否相关有什么区别呢?特别是对于MLPs,你不必劳神费力--几乎到处都有它们的东西。
好吧,我不倾向于你的任何事情。深度学习仅仅从MLP开始。
但是,当涉及到网络内部的数据表示、它们的移动和转换时,关于激活、循环层、正则化、层组合等问题就自然而然地被提出来了。这是深入的学习。
我明白,但我说的是别的东西。对于双管齐下的问题,你不需要高等数学,只需要算术。算术是否相关是另一回事。
也就是说,你必须首先定义问题,然后选择解决问题的方法。
至于大型和复杂的DM--DL,MLP肯定早就过了阶段。
只是,在其他条件相同的情况下,深层的人还能学得更快......比如说,不是10个小时,而是5分钟 :)