机器人的机器学习 - 页 5 123456789101112 新评论 mytarmailS 2018.09.21 10:05 #41 Ivan Negreshniy:当然我也试过,不仅是我,比如在关于MO的主题中,就有一些人这样做了,他们重复着关于入门时的垃圾的咒语,显然忘记了用老师训练时正式输出的垃圾并没有好多少,而对特征向量的选择和洗牌并不能挽救过拟合的问题。我正试图手动标记信号,但系统应该平均分配,还是应该只标记有逻辑的输入? 网络是如何应对非平稳性的? 它到底能不能应对,例如,一个相同的模式的大小可能是15条或150条? Ivan Negreshniy 2018.09.21 11:04 #42 mytarmailS:我正试图手动标记信号,但系统应该平均分配,还是应该只标记有逻辑的输入?网络是如何应对非平稳性的? 它是否能够应对,例如,一个相同的模式的大小可能是15条或150条? 有些模型对信号的数量很敏感,需要对齐,有些则不需要,我想我们可以从一个随机的脚手架 和一个自写的网格开始,这些都是很朴素的,至于图案的大小,我们可以以最大为基础。 Yuriy Asaulenko 2018.09.21 11:16 #43 Ivan Negreshniy:现在用于组织和讨论实验。 任何有意愿的作者都可以创建带有自己策略的交易信号的模板,并将其发布在这个主题中。我处理这些模板,创建专家顾问或指标,并以汇编的形式在这里发布。其他所有人都可以自由地下载模板和机器人,对它们进行测试并提出他们的专家意见。为什么这么复杂。它可以用更简单的方式来完成。 许多交易是在历史上随机产生的。其中许多人是成功的,也有许多人是不成功的。在这个样本上,我们用MO的方法来教导这个系统。MO将对其进行分类并找到模式。 我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中,它显示了80-85%的成功交易。这对于一个简单的MO来说已经非常奇怪了,因为它根本无法记住那么多的交易--唯一的解释是MO实际上找到并概括了一些模式。 是的,但所有这些奇迹都是在训练序列上才观察到的)。 Ivan Negreshniy 2018.09.21 11:55 #44 Yuriy Asaulenko:为什么要这么复杂。它可以用更简单的方式来完成。 许多交易是在故事上随机产生的。他们中的许多人是成功的,许多人是不成功的。在这个样本上,我们用MO的方法训练系统。MO将对其进行分类并找到模式。 我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中显示80-85%的成功交易。这对于一个简单的MO来说已经非常奇怪了,因为它根本不可能记住那么多的交易--唯一的解释是MO实际上发现并概括了一些模式。 是的,但所有这些奇迹都是在训练序列上才观察到的)。嗯,是的,在完全过拟合的情况下,训练序列可能是100%,但任务不是记忆,而是归纳并取得前进的结果。 这就是为什么在实验中建议不要对随机或所有可能的盈利交易进行训练,而是对从任何指标的读数中过滤出来的交易(信号)进行训练。 因此,所有的信号将已经包含了与BP的形式化的依赖关系,神经网络只需要确定它并建立一个排除不包括在样本中的不良信号的模式。 Maxim Dmitrievsky 2018.09.21 12:28 #45 Yuriy Asaulenko:为什么要这么复杂。它可以用更简单的方式来完成。 许多交易是在故事上随机产生的。他们中的许多人是成功的,许多人是不成功的。在这个样本上,我们用MO的方法训练系统。MO将对其进行分类并找到模式。 我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中显示80-85%的成功交易。这对一个简单的MO来说已经非常奇怪了,因为它根本无法记住那么多的交易--唯一的解释是MO实际上找到并概括了一些模式。 是的,但所有这些奇迹都只在学习序列上观察到)。不幸的是,你对MO的了解仍然趋向于零。 所以你的内部神经网络还不能达成共识,不知道这一切是怎么回事 Yuriy Asaulenko 2018.09.21 12:39 #46 Maxim Dmitrievsky:不幸的是,你对国防部的了解仍然是零。 这就是为什么你的内在神经网络还不能达成共识:做这些事到底有什么意义?别这么激动,马克西姆)。大家都已经知道,唯一比你更坚强的是球。 Yuriy Asaulenko 2018.09.21 12:43 #47 Ivan Negreshniy:嗯,是的,在完全超拟合的训练中,它可能是100%,但任务不是记忆,而是归纳并在远期市场上获得结果。 这就是为什么在实验中建议不要对随机或所有可能的盈利交易进行训练,而是对从任何指标的读数中过滤出来的交易(信号)进行训练。 因此,所有的信号将已经包含了与BP的形式化的依赖关系,神经网络只需要确定它并建立一个排除不包括在样本中的不良信号的模式。在训练样本维度远远大于NS维度的情况下,重新训练几乎是不现实的。 在小样本的情况下,重新训练是以一次为单位实现的。比方说,给你200个真实的交易。 Ivan Negreshniy 2018.09.21 13:01 #48 Yuriy Asaulenko:在训练样本维度远远大于NS维度的情况下,重新训练几乎是不现实的。 在小样本的情况下,重新训练是在数次的情况下实现的。假设给你200个真实交易。这取决于数据、参数和模型的类型,例如在树中,层次的数量是动态增加的,就像在我的网络中,神经元的数量,虽然有一个信息条件密度的限制,但它只由训练样本决定,你可以做剪枝,委员会等。 而过度学习,它不一定是记住了所有的样本,它只是记住了它们而没有归纳,例如在有矛盾的信息被替换而不能被平均化的情况下。 Yuriy Asaulenko 2018.09.21 14:01 #49 Ivan Negreshniy:这取决于数据、参数和模型类型,例如在树中,层次的数量是动态增加的,在我的网络中,神经元的数量也是动态增加的,虽然条件信息密度有一个限制,但它只由训练样本决定,你可以做剪枝、委员会等。 而过度学习,不一定是要记住所有的样本,只是在没有归纳的情况下记住它们,例如在有矛盾的信息被替换而不能被平均化的情况下。我们为什么不从市场上下载一些超级大的策略,在测试器中运行它(我们相信测试器)),并将结果应用于NS、RF、SVM或其他东西。而且我们不必等待--我们在演示中进行尝试并看到结果。 Ivan Negreshniy 2018.09.21 14:29 #50 Yuriy Asaulenko:为什么不做以下实验:从市场上下载一些超级大的策略,在测试器中运行(我们相信测试器)),并将结果提交给NS、RF、SVM或其他东西。而且我们不必等待--我们在演示中进行尝试并看到结果。因此,你不能,编译的保护版主会拒绝,因为你需要来源,而来源会拒绝,因为需要保护卖家的权利--恶性循环的工作:)) 但这里没有什么令人惊讶的,因为不同职业的机器人和对象环境中的机器人的法律地位,到目前为止,是很差的... 123456789101112 新评论 原因: 取消 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
当然我也试过,不仅是我,比如在关于MO的主题中,就有一些人这样做了,他们重复着关于入门时的垃圾的咒语,显然忘记了用老师训练时正式输出的垃圾并没有好多少,而对特征向量的选择和洗牌并不能挽救过拟合的问题。
我正试图手动标记信号,但系统应该平均分配,还是应该只标记有逻辑的输入?
网络是如何应对非平稳性的? 它到底能不能应对,例如,一个相同的模式的大小可能是15条或150条?
我正试图手动标记信号,但系统应该平均分配,还是应该只标记有逻辑的输入?
网络是如何应对非平稳性的? 它是否能够应对,例如,一个相同的模式的大小可能是15条或150条?
现在用于组织和讨论实验。
为什么这么复杂。它可以用更简单的方式来完成。
许多交易是在历史上随机产生的。其中许多人是成功的,也有许多人是不成功的。在这个样本上,我们用MO的方法来教导这个系统。MO将对其进行分类并找到模式。
我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中,它显示了80-85%的成功交易。这对于一个简单的MO来说已经非常奇怪了,因为它根本无法记住那么多的交易--唯一的解释是MO实际上找到并概括了一些模式。
是的,但所有这些奇迹都是在训练序列上才观察到的)。
为什么要这么复杂。它可以用更简单的方式来完成。
许多交易是在故事上随机产生的。他们中的许多人是成功的,许多人是不成功的。在这个样本上,我们用MO的方法训练系统。MO将对其进行分类并找到模式。
我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中显示80-85%的成功交易。这对于一个简单的MO来说已经非常奇怪了,因为它根本不可能记住那么多的交易--唯一的解释是MO实际上发现并概括了一些模式。
是的,但所有这些奇迹都是在训练序列上才观察到的)。
嗯,是的,在完全过拟合的情况下,训练序列可能是100%,但任务不是记忆,而是归纳并取得前进的结果。
这就是为什么在实验中建议不要对随机或所有可能的盈利交易进行训练,而是对从任何指标的读数中过滤出来的交易(信号)进行训练。
因此,所有的信号将已经包含了与BP的形式化的依赖关系,神经网络只需要确定它并建立一个排除不包括在样本中的不良信号的模式。
为什么要这么复杂。它可以用更简单的方式来完成。
许多交易是在故事上随机产生的。他们中的许多人是成功的,许多人是不成功的。在这个样本上,我们用MO的方法训练系统。MO将对其进行分类并找到模式。
我是在约1万个交易的序列中做到的。即使是带有MO的简单系统也学习得很好,在测试中显示80-85%的成功交易。这对一个简单的MO来说已经非常奇怪了,因为它根本无法记住那么多的交易--唯一的解释是MO实际上找到并概括了一些模式。
是的,但所有这些奇迹都只在学习序列上观察到)。
不幸的是,你对MO的了解仍然趋向于零。
所以你的内部神经网络还不能达成共识,不知道这一切是怎么回事不幸的是,你对国防部的了解仍然是零。
这就是为什么你的内在神经网络还不能达成共识:做这些事到底有什么意义?别这么激动,马克西姆)。大家都已经知道,唯一比你更坚强的是球。
嗯,是的,在完全超拟合的训练中,它可能是100%,但任务不是记忆,而是归纳并在远期市场上获得结果。
这就是为什么在实验中建议不要对随机或所有可能的盈利交易进行训练,而是对从任何指标的读数中过滤出来的交易(信号)进行训练。
因此,所有的信号将已经包含了与BP的形式化的依赖关系,神经网络只需要确定它并建立一个排除不包括在样本中的不良信号的模式。
在训练样本维度远远大于NS维度的情况下,重新训练几乎是不现实的。
在小样本的情况下,重新训练是以一次为单位实现的。比方说,给你200个真实的交易。
在训练样本维度远远大于NS维度的情况下,重新训练几乎是不现实的。
在小样本的情况下,重新训练是在数次的情况下实现的。假设给你200个真实交易。
这取决于数据、参数和模型的类型,例如在树中,层次的数量是动态增加的,就像在我的网络中,神经元的数量,虽然有一个信息条件密度的限制,但它只由训练样本决定,你可以做剪枝,委员会等。
而过度学习,它不一定是记住了所有的样本,它只是记住了它们而没有归纳,例如在有矛盾的信息被替换而不能被平均化的情况下。
这取决于数据、参数和模型类型,例如在树中,层次的数量是动态增加的,在我的网络中,神经元的数量也是动态增加的,虽然条件信息密度有一个限制,但它只由训练样本决定,你可以做剪枝、委员会等。
而过度学习,不一定是要记住所有的样本,只是在没有归纳的情况下记住它们,例如在有矛盾的信息被替换而不能被平均化的情况下。
我们为什么不从市场上下载一些超级大的策略,在测试器中运行它(我们相信测试器)),并将结果应用于NS、RF、SVM或其他东西。而且我们不必等待--我们在演示中进行尝试并看到结果。
为什么不做以下实验:从市场上下载一些超级大的策略,在测试器中运行(我们相信测试器)),并将结果提交给NS、RF、SVM或其他东西。而且我们不必等待--我们在演示中进行尝试并看到结果。
因此,你不能,编译的保护版主会拒绝,因为你需要来源,而来源会拒绝,因为需要保护卖家的权利--恶性循环的工作:))
但这里没有什么令人惊讶的,因为不同职业的机器人和对象环境中的机器人的法律地位,到目前为止,是很差的...