交易中的机器学习:理论、模型、实践和算法交易 - 页 1376 1...136913701371137213731374137513761377137813791380138113821383...3399 新评论 Yuriy Asaulenko 2019.02.26 20:58 #13751 阿列克谢-维亚兹米 金。为什么要研究不到整个样本的10%,更多的抽样不是应该导致改进吗?而且为什么要超过5千?如果你不能在他们身上训练,你就不能在更多的地方训练。 Farkhat Guzairov 2019.02.26 21:03 #13752 阿列克谢-维亚兹米 金。为什么要训练不到整个样本的10%,增加样本不是应该导致改善吗?过度训练的系统呢,你认为它将导致什么? Aleksey Vyazmikin 2019.02.26 21:22 #13753 法尔哈特-古扎罗夫。一个重新培训的系统呢,你认为这将导致什么?样本越大,就需要更多的叶子/树而言,就越难拟合模型。 sibirqk 2019.02.27 05:35 #13754 尤里-阿索连科。通过x - 交易号码,通过y -以点为单位的利润金额 。 是4位数,还是5位数? Yuriy Asaulenko 2019.02.27 05:42 #13755 sibirqk: 是4字头,还是5字头? 这根本就不是一个标志)。 sibirqk 2019.02.27 05:55 #13756 尤里-阿索连科。 这根本不是一个标志))。 那么它是什么意思--以pps为单位的利润额? Yuriy Asaulenko 2019.02.27 06:18 #13757 sibirqk: 那么,把利润放在点上是什么意思? 这是一个交流工具。它显示了在最简单的系统上获利的可能性。其余的还不重要。 Forester 2019.02.27 07:52 #13758 弗拉基米尔-佩雷文科。这不完全正确。例如,你有train[2000, ] 和test[500, ] 。你在train上进行训练,初始例子权重=1.0,让test[]预测训练后的模型。根据每个测试前缀的质量,你给它一个权重。然 后将训练和测试结合起来,形成一个新的训练样本,训练模型,测试模型,如此反复,直到所有的训练样本都有这样得到的权重。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。 用ELM检查,给出了良好的结果。 祝好运我不太明白这怎么能提高模型在新数据上的性能。 因此,在进一步的训练中,相当于从样本中删除这些线条,在测试中,一切都会很好,有100%的准确性,在测试中,在同一个圆圈中的标记--也会一切都很好。但是有了全新的数据,我们将无法收回这些线条,它已经是模型真正能够做到的了。 或者反过来说,你是否为错误的例子增加了重量? Vladimir Perervenko 2019.02.27 07:59 #13759 elibrarius。我不太明白这怎么能提高模型在新数据上的性能。 例如,如果类的定义不正确,我们就把权重递减,作为一个极端的变量0.所以在随后的训练中,相当于从样本中删除这些行,一切都会很好,在托盘上有100%的准确性,在测试中,我们也循环标记 - 一切也会很好。但在全新的数据上,我们将无法抛弃线,而且会有已经是模型的真正能力。 还是你反而为错误的例子增加了权重?当然,降级是针对 "坏 "的例子。如果你往上走--那就是典型的助推。 只要做一个实验并检查一下就可以了。 我现在不这么做了。在训练前进行预处理时,我删除或突出了有噪声的例子。 祝好运 Грааль 2019.02.27 14:27 #13760 尤里-阿索连科。为什么你需要超过5,000个?如果你不能用它来学习,你就不能用更多的东西来学习。这句话被归入愚蠢声明的库房。 阿列克谢-维亚兹米 金。样本越大,就需要更多的树叶/树木,就越难拟合模型。 完全正确,越多越好(少于10万是噪音),但我们必须考虑到市场的变化,如何在训练中考虑到这一点是一个大秘密。 1...136913701371137213731374137513761377137813791380138113821383...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
为什么要研究不到整个样本的10%,更多的抽样不是应该导致改进吗?
而且为什么要超过5千?如果你不能在他们身上训练,你就不能在更多的地方训练。
为什么要训练不到整个样本的10%,增加样本不是应该导致改善吗?
过度训练的系统呢,你认为它将导致什么?
一个重新培训的系统呢,你认为这将导致什么?
样本越大,就需要更多的叶子/树而言,就越难拟合模型。
通过x - 交易号码,通过y -以点为单位的利润金额 。
是4位数,还是5位数?
是4字头,还是5字头?
这根本不是一个标志))。
那么,把利润放在点上是什么意思?
这不完全正确。例如,你有train[2000, ] 和test[500, ] 。你在train上进行训练,初始例子权重=1.0,让test[]预测训练后的模型。根据每个测试前缀的质量,你给它一个权重。然 后将训练和测试结合起来,形成一个新的训练样本,训练模型,测试模型,如此反复,直到所有的训练样本都有这样得到的权重。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。
用ELM检查,给出了良好的结果。
祝好运
我不太明白这怎么能提高模型在新数据上的性能。
因此,在进一步的训练中,相当于从样本中删除这些线条,在测试中,一切都会很好,有100%的准确性,在测试中,在同一个圆圈中的标记--也会一切都很好。但是有了全新的数据,我们将无法收回这些线条,它已经是模型真正能够做到的了。
或者反过来说,你是否为错误的例子增加了重量?
我不太明白这怎么能提高模型在新数据上的性能。
例如,如果类的定义不正确,我们就把权重递减,作为一个极端的变量0.所以在随后的训练中,相当于从样本中删除这些行,一切都会很好,在托盘上有100%的准确性,在测试中,我们也循环标记 - 一切也会很好。但在全新的数据上,我们将无法抛弃线,而且会有已经是模型的真正能力。
还是你反而为错误的例子增加了权重?
当然,降级是针对 "坏 "的例子。如果你往上走--那就是典型的助推。
只要做一个实验并检查一下就可以了。
我现在不这么做了。在训练前进行预处理时,我删除或突出了有噪声的例子。
祝好运
为什么你需要超过5,000个?如果你不能用它来学习,你就不能用更多的东西来学习。
这句话被归入愚蠢声明的库房。
样本越大,就需要更多的树叶/树木,就越难拟合模型。
完全正确,越多越好(少于10万是噪音),但我们必须考虑到市场的变化,如何在训练中考虑到这一点是一个大秘密。