交易中的机器学习:理论、模型、实践和算法交易 - 页 631 1...624625626627628629630631632633634635636637638...3399 新评论 Maxim Dmitrievsky 2018.01.31 15:23 #6301 forexman77:你在第二层的输入有三个神经元被sigmoid处理吗?你如何调整第二层的权重,比如说范围从-1到1,步长为0.1。 在我的网络中,处理完第二层后,交易数量 下降了,我的结果也没有多大改善。当我只是安装了一个有9个输入和一个输出神经元的感知器,然后拿着另一个独立的感知器,在保存了第一个感知器的设置的情况下再次安装它时,情况就不同了。第4个神经元处理前三个神经元的结果,即再加3个权重。 是的,从-1到1,增量为0.1,但不是sigmoid,而是切线 我试着做了一个中间层,权重与第一个输入层相同,交易数量下降了,质量也大大提高了,但优化9个额外的权重太多:) 你的版本听起来不错......我正在考虑在优化的结果上训练传统的NS......我得试试。但我对这种方法已经感到厌倦了 forexman77 2018.01.31 15:35 #6302 马克西姆-德米特里耶夫斯基。第4个神经元处理前三个神经元的结果,即再加3个权重。 我现在试着做一个中间层,权重与第一个输入层相同--交易数量下降了,质量也提高了,但再优化9个权重已经太多:) 你的版本听起来不错......我正在考虑在优化的结果上训练传统的NS......我得试试。但我对这种方法越来越厌烦了。我的印象是,我应该在第一层上做一个指标,然后目测一下第二层上应该应用什么权重。或者用sigmoid处理(那么你得到的值大约在0.2到0.9之间,大致如此),然后你可以采取小的权重,不需要很大的范围。 加上额外的重量而不对输入进行约束,只是一个重量,Dr.Trader向我建议。额外的偏置权重对结果有一点改善,例如,1.7加上偏置就变成了1.8。https://www.mql5.com/ru/forum/86386/page505#comment_5856699 Машинное обучение в трейдинге: теория и практика (торговля и не только) 2017.10.04www.mql5.com Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики... Maxim Dmitrievsky 2018.01.31 16:27 #6303 forexman77:我的印象是,你需要在第一层做一个指示器,并直观地看到在第二层应用什么权重。或者用sigmoid处理(那么你就会得到从0.2到0.9左右的值),然后你可以采取小的权重,不需要大范围的权重。 再加上没有绑定输入的额外重量,只是偏置的重量,Dr.Trader向我建议。例如,它是1.7,有偏差,现在是1.8。https://www.mql5.com/ru/forum/86386/page505#comment_5856699 纯粹的即兴发挥很难做到:)但到目前为止,主要的问题仍然是--重新培训 Yuriy Asaulenko 2018.01.31 16:55 #6304 马克西姆-德米特里耶夫斯基。 纯粹的即兴表演是很难做到的:)但主要问题仍然是--再培训。那么,5-10个神经元的重新训练根本不是问题)。似乎在你身上就有这样的地方。 电脑上有一个有趣的标本。你有一篇演讲稿。一个噪音被生成并覆盖在这个语音上。然后教一个简单的MLP,我们又听到了几乎纯正的语言。 我对此完全感到奇怪,虽然在Haikin中有类似噪音修改器的描述,作为一个例子。 Maxim Dmitrievsky 2018.02.01 04:26 #6305 尤里-阿索连科。那么,5-10个神经元的重新训练根本不是问题)。似乎在你身上就有这样的地方。 电脑上有一个有趣的标本。你有一篇演讲稿。一个噪音被生成并覆盖在这个语音上。然后教一个简单的MLP,我们又听到了几乎纯正的语言。 我真的被它吓了一跳,虽然它在《海经》中被描述为一个例子。 是的,但这只是其中一个机器人......如果它不工作--没什么大不了的,我会换成另一个......以此类推,直到发生综合情况:)或者我感到厌烦。 Vladimir Karputov 2018.02.01 14:42 #6306 请不要屈从于侮辱,注意使用脏话。 Maxim Dmitrievsky 2018.02.01 17:24 #6307 似乎已经错过了一些刺激,我希望我有时间参加。 toxic 2018.02.01 17:54 #6308 Maxim Dmitrievsky: 有些垃圾似乎被遗漏了,我希望我有时间参与。另一个,即我回答捷列耶夫斯基先生的那个,被删除了。我回复特伦提夫关于时间序列 测试的问题,并说当地作家是业余的,因为他们不明白,在70-80%的准确率下,夏普比率将超过20,但他们没有任何意义。 Maxim Dmitrievsky 2018.02.01 17:58 #6309 我没有。删除了我回复捷列尼夫先生的信息。Terentiev关于时间序列测试,并说当地的文章作者只是业余的,因为他们不明白70-80%的准确性,夏普比率将超过20,他们有一些胡言乱语啊,好的 ) Maxim Dmitrievsky 2018.02.01 17:59 #6310 我一直想知道再教育的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。 https://hackernoon.com/the-self-learning-quant-d3329fcc9915 我想买下这个机器人,但这有点傻,他在最后才学会如何购买,不知道为什么。 The Self Learning Quant – Hacker Noon 2016.09.27Daniel Zakrissonhackernoon.com Recently there has been a lot of attention around Google DeepMinds victory over Lee Sedol in the board game Go. This is a remarkable… 1...624625626627628629630631632633634635636637638...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
你在第二层的输入有三个神经元被sigmoid处理吗?你如何调整第二层的权重,比如说范围从-1到1,步长为0.1。
在我的网络中,处理完第二层后,交易数量 下降了,我的结果也没有多大改善。当我只是安装了一个有9个输入和一个输出神经元的感知器,然后拿着另一个独立的感知器,在保存了第一个感知器的设置的情况下再次安装它时,情况就不同了。
第4个神经元处理前三个神经元的结果,即再加3个权重。
是的,从-1到1,增量为0.1,但不是sigmoid,而是切线
我试着做了一个中间层,权重与第一个输入层相同,交易数量下降了,质量也大大提高了,但优化9个额外的权重太多:)
你的版本听起来不错......我正在考虑在优化的结果上训练传统的NS......我得试试。但我对这种方法已经感到厌倦了
第4个神经元处理前三个神经元的结果,即再加3个权重。
我现在试着做一个中间层,权重与第一个输入层相同--交易数量下降了,质量也提高了,但再优化9个权重已经太多:)
你的版本听起来不错......我正在考虑在优化的结果上训练传统的NS......我得试试。但我对这种方法越来越厌烦了。
我的印象是,我应该在第一层上做一个指标,然后目测一下第二层上应该应用什么权重。或者用sigmoid处理(那么你得到的值大约在0.2到0.9之间,大致如此),然后你可以采取小的权重,不需要很大的范围。
加上额外的重量而不对输入进行约束,只是一个重量,Dr.Trader向我建议。额外的偏置权重对结果有一点改善,例如,1.7加上偏置就变成了1.8。https://www.mql5.com/ru/forum/86386/page505#comment_5856699
我的印象是,你需要在第一层做一个指示器,并直观地看到在第二层应用什么权重。或者用sigmoid处理(那么你就会得到从0.2到0.9左右的值),然后你可以采取小的权重,不需要大范围的权重。
再加上没有绑定输入的额外重量,只是偏置的重量,Dr.Trader向我建议。例如,它是1.7,有偏差,现在是1.8。https://www.mql5.com/ru/forum/86386/page505#comment_5856699
纯粹的即兴表演是很难做到的:)但主要问题仍然是--再培训。
那么,5-10个神经元的重新训练根本不是问题)。似乎在你身上就有这样的地方。
电脑上有一个有趣的标本。你有一篇演讲稿。一个噪音被生成并覆盖在这个语音上。然后教一个简单的MLP,我们又听到了几乎纯正的语言。
我对此完全感到奇怪,虽然在Haikin中有类似噪音修改器的描述,作为一个例子。
那么,5-10个神经元的重新训练根本不是问题)。似乎在你身上就有这样的地方。
电脑上有一个有趣的标本。你有一篇演讲稿。一个噪音被生成并覆盖在这个语音上。然后教一个简单的MLP,我们又听到了几乎纯正的语言。
我真的被它吓了一跳,虽然它在《海经》中被描述为一个例子。
有些垃圾似乎被遗漏了,我希望我有时间参与。
另一个,即我回答捷列耶夫斯基先生的那个,被删除了。我回复特伦提夫关于时间序列 测试的问题,并说当地作家是业余的,因为他们不明白,在70-80%的准确率下,夏普比率将超过20,但他们没有任何意义。
删除了我回复捷列尼夫先生的信息。Terentiev关于时间序列测试,并说当地的文章作者只是业余的,因为他们不明白70-80%的准确性,夏普比率将超过20,他们有一些胡言乱语
啊,好的 )
我一直想知道再教育的问题,所以我发现了一篇有趣的文章,并试图购买它,也许会把它添加到机器人中。
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
我想买下这个机器人,但这有点傻,他在最后才学会如何购买,不知道为什么。