交易中的机器学习:理论、模型、实践和算法交易 - 页 377 1...370371372373374375376377378379380381382383384...3399 新评论 Maxim Dmitrievsky 2017.05.26 19:07 #3761 弗拉基米尔-佩雷文科。分成火车/测试/验证后,混合火车。其余各组不要洗牌。 这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在送入之前将每一个minibatch混合起来。祝好运 能否给我一个关于混合的参考资料? 因为纯粹从直觉上讲,这毫无意义)以及预测者与目标的相关性(用这个我们解决了,几乎没有)。 Forester 2017.05.26 21:23 #3762 弗拉基米尔-佩雷文科。分成火车/测试/验证后,混合火车。其余各组不要洗牌。 这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在给神经网络喂食之前,对每个minibatch进行洗牌。祝好运我在ALGLIB的集合计算功能中发现了一个将火车和有效成分相互混合的例子。很明显,这是方法之一。 我只洗了火车。训练的平均误差(80.0%)=0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(20.0%)=0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 测试的平均误差(20%)面积=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。 СанСаныч Фоменко 2017.05.26 21:49 #3763 elibrarius。我发现在ALGLIB集合计算功能中,有一个将火车和有效的火车相互混合的例子。显然,这是其中一种方法。 只有火车被洗牌了。训练中的平均误差(80.0%)情节=0.396 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(20.0%)=0.391 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.395 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6 测试的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。 除了这些之外,文件上的错误是什么? Forester 2017.05.26 22:02 #3764 桑桑尼茨-弗门科。 除了这些之外,文件上的错误是什么?你是说在测试中?测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6我还没有做test2的情节。我只对test1进行筛选。(也许在未来)。 СанСаныч Фоменко 2017.05.26 22:23 #3765 elibrarius。你是说在测试现场?测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6我还没有创建test2的情节。我只对test1进行筛选。(也许在未来)。 在所有这些样本之外 Forester 2017.05.26 22:23 #3766 桑桑尼茨-弗门科。 在所有这些样本之外 外面没有,所有的数据都已经用过了。 СанСаныч Фоменко 2017.05.26 22:26 #3767 elibrarius。 开箱后,所有的数据都已被使用。 是否有可能将源文件分成80/20?然后你所有练习的80%,然后20%没有任何混合。 Forester 2017.05.26 22:37 #3768 桑桑尼茨-弗门科。 你能把源文件除以80/20吗?然后,你所有练习的80%,然后20%不做任何混合。有了混合。训练的平均误差(51.0%)部分=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6无需搅拌训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6只有2个周期的再培训,对于速度...睡觉时间已到) Machine learning in trading: СанСаныч Фоменко 2017.05.27 08:57 #3769 elibrarius。随着洗牌的进行。训练的平均误差(51.0%) 情节=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6 测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6无需搅拌训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 全图(训练+验证)。 平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6 测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6只有2个周期的再培训,对于速度...睡觉时间已到) 你的模型没有学到任何东西--它都是来自于球场。它在某处捡到了一些东西,然后发现这些东西是不相关的。从数据挖掘开始。目标,然后搜索与目标相关的预测因子,再确定所选预测因子对具体目标的预测能力,然后才是模型其他都是数字的智力游戏。 Maxim Dmitrievsky 2017.05.28 04:22 #3770 https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw他在周末有事情要做 :) 为Nubas准备的ar而这里有一个人在做一些算法交易。 Основы анализа данных www.youtube.com Канал содержит курсы по анализу данных. Все курсы бесплатны и легки в освоении Прохожу обучение в бесплатной школе Дениса Коновалова http://superpartnerka.bi... 1...370371372373374375376377378379380381382383384...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
分成火车/测试/验证后,混合火车。其余各组不要洗牌。
这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在送入之前将每一个minibatch混合起来。
祝好运
能否给我一个关于混合的参考资料? 因为纯粹从直觉上讲,这毫无意义)以及预测者与目标的相关性(用这个我们解决了,几乎没有)。
分成火车/测试/验证后,混合火车。其余各组不要洗牌。
这对神经网络的分类是有效的。此外,对于深度神经网络训练来说,在给神经网络喂食之前,对每个minibatch进行洗牌。
祝好运
我在ALGLIB的集合计算功能中发现了一个将火车和有效成分相互混合的例子。很明显,这是方法之一。
我只洗了火车。
误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。
我发现在ALGLIB集合计算功能中,有一个将火车和有效的火车相互混合的例子。显然,这是其中一种方法。
只有火车被洗牌了。
误差在所有区段都是一样的,与混合火车和有效的时候一样。显然,效果是一样的。
除了这些之外,文件上的错误是什么?
除了这些之外,文件上的错误是什么?
你是说在测试中?
测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
我还没有做test2的情节。我只对test1进行筛选。(也许在未来)。
你是说在测试现场?
测试 的平均误差(20%)部分=0.398 nLearns=2 NGrad=1208 NHess=0 NCholesky=0 codResp=6
我还没有创建test2的情节。我只对test1进行筛选。(也许在未来)。
在所有这些样本之外
在所有这些样本之外
开箱后,所有的数据都已被使用。
是否有可能将源文件分成80/20?然后你所有练习的80%,然后20%没有任何混合。
你能把源文件除以80/20吗?然后,你所有练习的80%,然后20%不做任何混合。
有了混合。
训练的平均误差(51.0%)部分=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
无需搅拌
训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
只有2个周期的再培训,对于速度...睡觉时间已到)
随着洗牌的进行。
训练的平均误差(51.0%) 情节=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.685(68.5%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.683(68.3%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试的平均误差(16.0%)部分=0.661(66.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
测试点的平均误差2(20.0%)=0.671(67.1%) nLearns=2 NGrad=725 NHess=0 NCholesky=0 codResp=6
无需搅拌
训练的平均误差(51.0%) 情节=0.516(51.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
验证图的平均误差(13.0%)=0.376(37.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
全图(训练+验证)。
平均学习误差=0.491(49.1%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试现场的平均误差(16.0%)=0.344(34.4%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
测试点2的平均误差(20.0%)=0.326(32.6%) nLearns=2 NGrad=1063 NHess=0 NCholesky=0 codResp=6
只有2个周期的再培训,对于速度...睡觉时间已到)
你的模型没有学到任何东西--它都是来自于球场。它在某处捡到了一些东西,然后发现这些东西是不相关的。
从数据挖掘开始。目标,然后搜索与目标相关的预测因子,再确定所选预测因子对具体目标的预测能力,然后才是模型
其他都是数字的智力游戏。
https://www.youtube.com/channel/UCLk-Oih8VlqF-StidijTUnw
他在周末有事情要做 :) 为Nubas准备的ar
而这里有一个人在做一些算法交易。