交易中的机器学习:理论、模型、实践和算法交易 - 页 1373 1...136613671368136913701371137213731374137513761377137813791380...3399 新评论 Vladimir Perervenko 2019.02.26 08:52 #13721 elibrarius。 我在R上锯开了达奇。发现了几个bug,在评论中描述了它们。经过几周的沉默,这个Darch原来在CRANa的档案中。 要求开发人员修复一些故障,他做到了。然后完全回滚到原始版本,抹去了所有的修复。因此,我所使用的所有修改都无法使用。 结论--要么自己做一切,要么使用有非常好的支持的顶级产品。1.你必须做一个分叉,并托管所有的变化。他们可能被接受,也可能不被接受,但你将能够从你的GitHub上使用你的版本。 2.当然,这是最可靠的选择。 Vladimir Perervenko 2019.02.26 08:58 #13722 马克西姆-德米特里耶夫斯基。对于那些努力追求复杂但不理解简单的人来说,简单是多么的美丽 和英语,当然,按照要求。不,我不会自己翻译。有一个网站链接,你可以在那里翻译这些文章。 这份非常有趣的报告不仅仅是关于简单和复杂的问题。强调的是,使用复杂的预处理,你可以把解决一个问题简化为简单的模型。只是确认了一个简单的事实,我在文章中不厌其烦地重复。"主要精力应放在预测器的预处理上,模型是次要的。 演讲者很搞笑。 祝好运 Forester 2019.02.26 12:22 #13723 Vladimir Perervenko: 这个非常有趣的讲座不仅仅是关于简单和复杂。重点是如何使用复杂的预处理可以减少到用简单的模型来解决问题。只是确认了一个简单的事实,我在文章中不厌其烦地重复这一事实。"主要精力应放在预测器的预处理上,模型是次要的。演讲者很搞笑。祝好运XGBOOST 的输入数组权重有行权重。其他一些软件包也有这个功能。 我在想,我可以把权重从1(新弦)写到0.5(旧弦)。这将增加新数据的影响。 我试了一下,没有发现任何特别的改善。还有人试过吗--有什么改善吗? Vladimir Perervenko 2019.02.26 12:36 #13724 elibrarius。 XGBOOST有一个带行权重的输入数组。其他一些软件包也有这个功能。 我想我可以把权重从1(新数据)写到0.5(旧数据)。这将增加新数据的影响。 我试了一下,没有发现任何特别的改善。还有人试过吗--有什么改善吗?这有点不对。例如,你有train[2000, ] 和test[500, ] 。你在train上进行训练,初始例子权重=1.0,使test[]谓语成为训练过的模型。根据每个测试前缀的质量,你给它一个权重。然后将训练和测试结合起来,形成一个新的训练样本,训练模型,测试模型,如此反复,直到所有的训练样本都有这样得到的权重。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。 now_train <- rbind(train,test)%>% tail(dim(train)[1]) 用ELM检查,给出了良好的结果。 祝好运 Forester 2019.02.26 12:45 #13725 弗拉基米尔-佩雷文科。这不完全正确。例如,你有train[2000, ] 和test[500, ] 。在nrain上训练,初始例子权重=1.0,使谓词test[]成为训练过的模型。根据每个测试前缀的质量,你给它一个权重。然后合并训练和测试,形成一个新的训练样本,训练模型,测试它,以此类推,直到整个训练样本的权重都将以这种方式获得。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。 用ELM检查,给出了良好的结果。 祝好运 这就像在交叉验证中一样--将数据分为5-10个部分,为每个周期设置权重,直到所有的权重都设置好。我认为我们应该做2-3个完整的圆圈以达到平衡。 让我想起了自学时的几次迭代,以设置最佳的行权重。 Vladimir Perervenko 2019.02.26 12:54 #13726 elibrarius。 这就像交叉验证一样--把数据分成5到10个部分,然后每个周期对一部分行进行加权,直到所有的行都被设定。我认为我们应该做2-3个完整的圆圈来平衡它。 让我想起了自学时的几次迭代,以设定最佳的行权重。可以用交叉检查的方式进行检查。 Maxim Dmitrievsky 2019.02.26 13:00 #13727 elibrarius。 XGBOOST有一个带行权重的输入数组。其他一些软件包也有这个功能。 我想,我们可以把权重从1(新鲜的)写到0.5(旧的)。这将增加新数据的影响。 我试了一下,没有发现任何特别的改善。还有人试过吗--有什么改善吗?好,那就只用新的教育方式来教育自己。这些权重是用于数据集上的模型方差排列,在对数回归中,也使用了变量方差(如果我没有搞清楚我们在说什么的话) 除了数据集的拟合之外,没有任何概念上的重大改进,应该给 如果你需要在一个小的子样本上对一般人群进行可靠的概括,这些是贝叶斯方法 Aleksey Vyazmikin 2019.02.26 13:32 #13728 elibrarius: XGBOOST有一个带有行权重的输入数组。其他一些软件包也有这种情况。 我在想,我可以把权重从1(新数据)到0.5(旧数据)。这将增加新数据的影响。 我试了一下,没有发现任何特别的改善。还有人试过吗--有什么改善吗?我们的想法是,这些权重将影响第一棵树的构建,即几乎相同的种子和窃听,不同的技术。理论上说,如果你把分离得很好的样本预测器 移到那些能给出正确分类的行的背景中,结果可能会有很大的变化。 难道不可能只从X分裂开始设置预测器的应用吗?我认为找到一个好的模型是一件非常有用的事情。 Forester 2019.02.26 14:53 #13729 马克西姆-德米特里耶夫斯基。好,那就只训练新的。这些权重 是为了 调整数据集上的 模型方差,在对数回归中也使用了变量方差(如果我没有搞错我们在谈论的内容的话) 任何概念上的重大改进,除了数据集的拟合,都不应该给 如果你需要在一个小的子样本上对一般人群进行可靠的概括,那就是贝叶斯方法。也就是说,对准是通过弗拉基米尔建议的方法选择的? Forester 2019.02.26 15:03 #13730 阿列克谢-维亚兹米 金。在想法中,这些权重将影响第一棵树的构建,即几乎相同的种子和窃听,不同的技术。从理论上讲,如果我们把分离好的样本预测器转移到那些能给出正确分类的行的背景中,结果可能会有很大的变化。 难道不可能指定如何只从X分裂开始应用一个预测器吗?我认为在寻找一个好的模型时,这是一个非常有用的东西。这些权重不仅在提升中,而且在森林和NS的情况下也可以应用。显然,该方法在所有国防部系统中是通用的。 第一个减少旧数据影响的实验显示没有改善。 在30000行上训练时,测试看起来比在80000行上训练时更好。在80000时,两个交易量都比较小,误差也比较大。我试着按比例减少重量(从新鲜的1到旧的0.5)--结果几乎一样。 显然,正如马克西姆所指出的那样,它仍然是为了对准分散,通过弗拉基米尔所述的方法。 1...136613671368136913701371137213731374137513761377137813791380...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我在R上锯开了达奇。发现了几个bug,在评论中描述了它们。经过几周的沉默,这个Darch原来在CRANa的档案中。
要求开发人员修复一些故障,他做到了。然后完全回滚到原始版本,抹去了所有的修复。因此,我所使用的所有修改都无法使用。
结论--要么自己做一切,要么使用有非常好的支持的顶级产品。
1.你必须做一个分叉,并托管所有的变化。他们可能被接受,也可能不被接受,但你将能够从你的GitHub上使用你的版本。
2.当然,这是最可靠的选择。
对于那些努力追求复杂但不理解简单的人来说,简单是多么的美丽
和英语,当然,按照要求。不,我不会自己翻译。有一个网站链接,你可以在那里翻译这些文章。
这份非常有趣的报告不仅仅是关于简单和复杂的问题。强调的是,使用复杂的预处理,你可以把解决一个问题简化为简单的模型。只是确认了一个简单的事实,我在文章中不厌其烦地重复。"主要精力应放在预测器的预处理上,模型是次要的。
演讲者很搞笑。
祝好运
这个非常有趣的讲座不仅仅是关于简单和复杂。重点是如何使用复杂的预处理可以减少到用简单的模型来解决问题。只是确认了一个简单的事实,我在文章中不厌其烦地重复这一事实。"主要精力应放在预测器的预处理上,模型是次要的。
演讲者很搞笑。
祝好运
我在想,我可以把权重从1(新弦)写到0.5(旧弦)。这将增加新数据的影响。
我试了一下,没有发现任何特别的改善。
还有人试过吗--有什么改善吗?
XGBOOST有一个带行权重的输入数组。其他一些软件包也有这个功能。
我想我可以把权重从1(新数据)写到0.5(旧数据)。这将增加新数据的影响。
我试了一下,没有发现任何特别的改善。
还有人试过吗--有什么改善吗?
这有点不对。例如,你有train[2000, ] 和test[500, ] 。你在train上进行训练,初始例子权重=1.0,使test[]谓语成为训练过的模型。根据每个测试前缀的质量,你给它一个权重。然后将训练和测试结合起来,形成一个新的训练样本,训练模型,测试模型,如此反复,直到所有的训练样本都有这样得到的权重。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。
now_train <- rbind(train,test)%>% tail(dim(train)[1])
用ELM检查,给出了良好的结果。
祝好运
这不完全正确。例如,你有train[2000, ] 和test[500, ] 。在nrain上训练,初始例子权重=1.0,使谓词test[]成为训练过的模型。根据每个测试前缀的质量,你给它一个权重。然后合并训练和测试,形成一个新的训练样本,训练模型,测试它,以此类推,直到整个训练样本的权重都将以这种方式获得。你可以对它们应用一个减少系数,用于老式酒吧,但我没有检查过。当然,所有这些都是为了分类。
用ELM检查,给出了良好的结果。
祝好运
让我想起了自学时的几次迭代,以设置最佳的行权重。
这就像交叉验证一样--把数据分成5到10个部分,然后每个周期对一部分行进行加权,直到所有的行都被设定。我认为我们应该做2-3个完整的圆圈来平衡它。
让我想起了自学时的几次迭代,以设定最佳的行权重。
可以用交叉检查的方式进行检查。
XGBOOST有一个带行权重的输入数组。其他一些软件包也有这个功能。
我想,我们可以把权重从1(新鲜的)写到0.5(旧的)。这将增加新数据的影响。
我试了一下,没有发现任何特别的改善。
还有人试过吗--有什么改善吗?
好,那就只用新的教育方式来教育自己。这些权重是用于数据集上的模型方差排列,在对数回归中,也使用了变量方差(如果我没有搞清楚我们在说什么的话)
除了数据集的拟合之外,没有任何概念上的重大改进,应该给
如果你需要在一个小的子样本上对一般人群进行可靠的概括,这些是贝叶斯方法XGBOOST有一个带有行权重的输入数组。其他一些软件包也有这种情况。
我在想,我可以把权重从1(新数据)到0.5(旧数据)。这将增加新数据的影响。
我试了一下,没有发现任何特别的改善。
还有人试过吗--有什么改善吗?
我们的想法是,这些权重将影响第一棵树的构建,即几乎相同的种子和窃听,不同的技术。理论上说,如果你把分离得很好的样本预测器 移到那些能给出正确分类的行的背景中,结果可能会有很大的变化。
难道不可能只从X分裂开始设置预测器的应用吗?我认为找到一个好的模型是一件非常有用的事情。好,那就只训练新的。这些权重 是为了 调整数据集上的 模型方差,在对数回归中也使用了变量方差(如果我没有搞错我们在谈论的内容的话)
任何概念上的重大改进,除了数据集的拟合,都不应该给
如果你需要在一个小的子样本上对一般人群进行可靠的概括,那就是贝叶斯方法。也就是说,对准是通过弗拉基米尔建议的方法选择的?
在想法中,这些权重将影响第一棵树的构建,即几乎相同的种子和窃听,不同的技术。从理论上讲,如果我们把分离好的样本预测器转移到那些能给出正确分类的行的背景中,结果可能会有很大的变化。
难道不可能指定如何只从X分裂开始应用一个预测器吗?我认为在寻找一个好的模型时,这是一个非常有用的东西。这些权重不仅在提升中,而且在森林和NS的情况下也可以应用。显然,该方法在所有国防部系统中是通用的。
在30000行上训练时,测试看起来比在80000行上训练时更好。在80000时,两个交易量都比较小,误差也比较大。我试着按比例减少重量(从新鲜的1到旧的0.5)--结果几乎一样。第一个减少旧数据影响的实验显示没有改善。
显然,正如马克西姆所指出的那样,它仍然是为了对准分散,通过弗拉基米尔所述的方法。