交易中的机器学习:理论、模型、实践和算法交易 - 页 1615 1...160816091610161116121613161416151616161716181619162016211622...3399 新评论 Forester 2020.03.17 09:21 #16141 阿列克谢-维亚兹米 金。 这不是缩减的问题,而是在分割之外的样本上对预测者行为的统计--这应该减少选择预测者价值的随机性。 顺便问一下,AlgLib是在每次分割时都做网格,还是只做一次,然后使用该网格?据我所知,CatBoost的开发者表示,网格是在他们那里做一次。 不存在随机性。每个预测器的最佳可用分区被选中。在森林中存在随机性,当每棵树不是被输入所有的预测因子,而是被随机选择的一半时。 它学会了一次。没有再培训。对于树木/森林,似乎根本没有重新学习,可能是因为重新学习的速度相当快。 还有,为什么要用电网?树有结点和叶子。 Maxim Dmitrievsky 2020.03.17 09:58 #16142 elibrarius。 顺便说一下,我不喜欢的是,推荐的树木深度是7-10。 也就是说,如果我们有100个预测器,而且那里的划分也是从每个预测器的中间开始的。我们很可能会有7个不同的预测者被分在中间。也许1或2个会分到四分之一,不太可能更小。 或者在提升算法中,算法不是通过半除法工作,而是以较小的块数工作?有谁知道吗? 而谁使用什么树的深度? Forester 2020.03.17 10:12 #16143 马克西姆-德米特里耶夫斯基。 47分钟是个遗憾...听取基本知识,这些知识大多是已知的。只有一个具体的问题是值得关注的。如果你知道 - 告诉我) Maxim Dmitrievsky 2020.03.17 10:38 #16144 elibrarius。 47分钟是个遗憾...听取基本知识,这些知识大多是已知的。只有一个具体的问题是值得关注的。如果你知道,请告诉我。 它们的构造都不一样,你必须阅读每一种的手册。 这一切都不重要,如果你有与目标相关的信息筹码,那么任何方法都可以。 我是在类似的功能上将森林与提升进行比较。提升的超配较少,总体上+- Forester 2020.03.17 10:47 #16145 马克西姆-德米特里耶夫斯基。 它们的构造都不一样,你必须阅读每一种的帮助。 如果有与目标相关的信息特征,那么任何方法都是可行的,这一切都不重要。 我是在类似的功能上将森林与提升进行比较。提升的过拟合度较小,一般来说+- 你把升压的深度设置为多少? Mihail Marchukajtes 2020.03.17 12:42 #16146 马克西姆-德米特里耶夫斯基。 它们的构造都不一样,你必须阅读每一种的帮助。 如果有与目标相关的信息特征,那么任何方法都是可行的,这一切都不重要。 我是在类似的功能上将森林与提升进行比较。提升的过拟合度较小,一般来说+- 这就是我的意思。如果输入是适合的,任何方法都能发挥作用。这就是我想检查的内容,因为我的输入真的很好。但只有雷舍托夫的优化器证明了这一点,正如你所理解的,一个专家不足以做出主观评价。这与方法无关,每种方法只需要一定数量的特征(麦克斯,这是我第一次因为你而使用这个词)有人需要很多,有人需要很少,但一般来说,如果输入数据能解释输出变量,那么任何方法都可以。而且我认为结果也会类似。我希望我可以在雷舍托夫以外的系统中使用我的输入。有必要去程序员论坛,我不知道该去哪里 :-(. Maxim Dmitrievsky 2020.03.17 12:42 #16147 elibrarius。 你设置了什么深度的提升? 2到10,深度越大,配合越好 最好是3-7 梯度的步骤也可以改变。一般来说,这并不重要,其结果是更少的散射,更少的偏移,更少的信号,等等。并保留了平均画面。这是一个优化的问题,与质量没有关系。 Mihail Marchukajtes 2020.03.17 13:16 #16148 马克斯,说实话,感谢你关于自然神经元的视频,但这个视频不是很好。事情是这样的,我有一个重新培训的理论,我已经思考了很久,并且已经为我建立了相当充分的理论。我相信Yandex的工作人员会有兴趣听的。 呃...我希望我能够找到力量来录制视频。我总是喝醉了,或者很滑稽。我不知道这一点 :-( Maxim Dmitrievsky 2020.03.17 13:27 #16149 Mihail Marchukajtes: 马克斯,我想感谢你关于自然神经元的视频,但这个视频不是那么好。事情是这样的,我有一个重新培训的理论,我已经思考了很久,并且为我建立了相当充分的理论。我相信Yandex的工作人员会有兴趣听的。呃... 我希望我能够找到力量来录制视频。我总是喝醉了,或者很滑稽。我不知道这一点 :-( ))的规律性,应该通过统计分析来寻求,而不是折磨神经元。 例如,在我倒数第二篇文章中,我按月给出了欧元兑美元10年的季节性波动。今年,这一切都在重演。4-5月将是最有趣的(从近期来看)。 Mihail Marchukajtes 2020.03.17 13:31 #16150 马克西姆-德米特里耶夫斯基。 ))的规律性应该通过统计分析来寻找,而不是通过折磨神经元来寻找。 这就是我的意思。在麻烦JPrediction之前,我只在6000千列中留下150件在统计学上有意义的作品,然后才寻找那个臭名昭著的描述输出的法律。从理论上讲,列的数量应该是表行数量的两倍,这样算法就有足够的数据可以选择。 结果,优化器从我建议的150件中留下5到10件,形成最终的模型。 1...160816091610161116121613161416151616161716181619162016211622...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
这不是缩减的问题,而是在分割之外的样本上对预测者行为的统计--这应该减少选择预测者价值的随机性。
顺便问一下,AlgLib是在每次分割时都做网格,还是只做一次,然后使用该网格?据我所知,CatBoost的开发者表示,网格是在他们那里做一次。
不存在随机性。每个预测器的最佳可用分区被选中。在森林中存在随机性,当每棵树不是被输入所有的预测因子,而是被随机选择的一半时。
它学会了一次。没有再培训。对于树木/森林,似乎根本没有重新学习,可能是因为重新学习的速度相当快。
还有,为什么要用电网?树有结点和叶子。
顺便说一下,我不喜欢的是,推荐的树木深度是7-10。
也就是说,如果我们有100个预测器,而且那里的划分也是从每个预测器的中间开始的。我们很可能会有7个不同的预测者被分在中间。也许1或2个会分到四分之一,不太可能更小。
或者在提升算法中,算法不是通过半除法工作,而是以较小的块数工作?有谁知道吗?
而谁使用什么树的深度?
47分钟是个遗憾...听取基本知识,这些知识大多是已知的。只有一个具体的问题是值得关注的。如果你知道 - 告诉我)
47分钟是个遗憾...听取基本知识,这些知识大多是已知的。只有一个具体的问题是值得关注的。如果你知道,请告诉我。
它们的构造都不一样,你必须阅读每一种的手册。
这一切都不重要,如果你有与目标相关的信息筹码,那么任何方法都可以。
我是在类似的功能上将森林与提升进行比较。提升的超配较少,总体上+-
它们的构造都不一样,你必须阅读每一种的帮助。
如果有与目标相关的信息特征,那么任何方法都是可行的,这一切都不重要。
我是在类似的功能上将森林与提升进行比较。提升的过拟合度较小,一般来说+-
它们的构造都不一样,你必须阅读每一种的帮助。
如果有与目标相关的信息特征,那么任何方法都是可行的,这一切都不重要。
我是在类似的功能上将森林与提升进行比较。提升的过拟合度较小,一般来说+-
你设置了什么深度的提升?
2到10,深度越大,配合越好
最好是3-7
梯度的步骤也可以改变。一般来说,这并不重要,其结果是更少的散射,更少的偏移,更少的信号,等等。并保留了平均画面。这是一个优化的问题,与质量没有关系。
马克斯,我想感谢你关于自然神经元的视频,但这个视频不是那么好。事情是这样的,我有一个重新培训的理论,我已经思考了很久,并且为我建立了相当充分的理论。我相信Yandex的工作人员会有兴趣听的。呃... 我希望我能够找到力量来录制视频。我总是喝醉了,或者很滑稽。我不知道这一点 :-(
))的规律性,应该通过统计分析来寻求,而不是折磨神经元。
例如,在我倒数第二篇文章中,我按月给出了欧元兑美元10年的季节性波动。今年,这一切都在重演。4-5月将是最有趣的(从近期来看)。))的规律性应该通过统计分析来寻找,而不是通过折磨神经元来寻找。