交易中的机器学习:理论、模型、实践和算法交易 - 页 1334 1...132713281329133013311332133313341335133613371338133913401341...3399 新评论 Maxim Dmitrievsky 2019.02.14 10:36 #13331 阿列克谢-维亚兹米 金。我查了MSUA,我不知道它具体指的是哪本书,但用这个名字是搜不到的。据我所知,这个东西是在CatBoost中使用的 --l2-leaf-regl2-leaf-regularizerL2正则化系数。用于计算叶值。任何正值都是允许的。3CPU和GPU 或者是关于其他的东西?这种方法也可以在创建预测器时使用,例如,描述某些领域的模式。那么这就是提霍诺夫的正则化,而温度反弹在哪里? Aleksey Vyazmikin 2019.02.14 10:51 #13332 Maxim Dmitrievsky: 好吧,这是Tikhonov的正则化,那么温度包络呢?但重点似乎是一样的,不是吗?我只是不知道里面有什么样的算法... --装袋-温度定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。使用贝叶斯引导法为对象分配随机权重。如果这个参数的值被设置为"1",那么权重将从指数分布中取样。如果这个参数的值被设置为"0",所有的权重都等于1。可能的数值范围是. 该值越高,装袋就越积极。1 Maxim Dmitrievsky 2019.02.14 10:59 #13333 阿列克谢-维亚兹米 金。但重点似乎是一样的,不是吗?我只是完全不知道里面的算法是什么...... --装袋-温度定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。使用贝叶斯引导法为对象分配随机权重。如果这个参数的值被设置为"1",那么权重将从指数分布中取样。如果这个参数的值被设置为"0",所有的权重都等于1。可能的数值范围是. 该值越高,装袋就越积极。1这当然是不同的。 当你有很多功能的时候,我想这是很有用的。 将会对模型做一些改变,纯粹是细微的调整,没有更多的改变。 细节需要阅读,总的来说是可以理解的,但不能一蹴而就。 Aleksey Vyazmikin 2019.02.14 10:59 #13334 顺便说一下,我找到了我之前提到的讲座,有python的例子,供那些想了解XGboost 的人参考。在那里,或在接下来的讲座中,也会讨论正则化。 Aleksey Vyazmikin 2019.02.14 11:01 #13335 马克西姆-德米特里耶夫斯基。当然,这是不一样的。 当有很多功能的时候,我想这是很有用的。 将会对模型进行一些改变,纯粹是微妙的调整,没有更多的改变。我们将看到什么样的变化--今天或明天将是下一个10万模型,我将决定是否在过冲中应用这个参数...... Maxim Dmitrievsky 2019.02.14 11:23 #13336 阿列克谢-维亚兹米 金。让我们看看价差会是多少--今天或明天会有另外10万个模型,我将决定是否在超限中应用这个参数......我不知道是否有参数的手册,我正在阅读其他的东西 Aleksey Vyazmikin 2019.02.14 11:49 #13337 马克西姆-德米特里耶夫斯基。难道没有参数手册吗? 我还没有使用katb,我正在阅读其他东西。好吧,这里只有一个设置和一个简单的描述,加上一个著名的片段与解释。 Yuriy Asaulenko 2019.02.14 12:00 #13338 阿列克谢-维亚兹米 金。如果你仔细观察,你可以看到同一样本中的模型的财务结果可能非常不同--从5000到1500,即明显不同,这意味着种子确实影响了模型。我将假设是所选模型相似(我会检查),而它们的利润率略有不同,但几乎所有模型都在中间持平,这令人惊讶--它们在相同的利润率上是错误的(新数据中的异常现象?)你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。 1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。 2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞中,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。 3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。 学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。 如果不同的 "sids "相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何你能掌握的深层空洞。 Maxim Dmitrievsky 2019.02.14 12:29 #13339 尤里-阿索连科。你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。 1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。 2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。 3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里弹跳。学习情况比1和2好,但也不是王牌。 学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。 如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何可以把握的深空。或一个鞋盒)这些球是一个很好的解释。 和一个好的盒子自己摇晃。 Ivan Negreshniy 2019.02.14 12:44 #13340 尤里-阿索连科。你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是ME中学习结构的原则。 1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。 2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。 3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。 学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。 如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇错了,要么是我们的盒子里没有深槽可以抓取。 很好的抽象,如果我们所说的深谷是指在验证时误差最小的反应,对于这种反应有一个学习的停止,那么这也可以解释为什么当验证样本量增加时,他得到了更好的结果,这可能是正式增加抽象地形的大小,从而增加谷底数量的结果。 1...132713281329133013311332133313341335133613371338133913401341...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我查了MSUA,我不知道它具体指的是哪本书,但用这个名字是搜不到的。据我所知,这个东西是在CatBoost中使用的
--l2-leaf-reg
l2-leaf-regularizer
L2正则化系数。用于计算叶值。
任何正值都是允许的。
CPU和GPU
或者是关于其他的东西?这种方法也可以在创建预测器时使用,例如,描述某些领域的模式。
那么这就是提霍诺夫的正则化,而温度反弹在哪里?
好吧,这是Tikhonov的正则化,那么温度包络呢?
但重点似乎是一样的,不是吗?我只是不知道里面有什么样的算法...
定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。
使用贝叶斯引导法为对象分配随机权重。
如果这个参数的值被设置为"1",那么权重将从指数分布中取样。如果这个参数的值被设置为"0",所有的权重都等于1。
可能的数值范围是. 该值越高,装袋就越积极。
但重点似乎是一样的,不是吗?我只是完全不知道里面的算法是什么......
定义贝叶斯引导法的设置。在分类和回归模式下,它被默认使用。
使用贝叶斯引导法为对象分配随机权重。
如果这个参数的值被设置为"1",那么权重将从指数分布中取样。如果这个参数的值被设置为"0",所有的权重都等于1。
可能的数值范围是. 该值越高,装袋就越积极。
这当然是不同的。
当你有很多功能的时候,我想这是很有用的。
将会对模型做一些改变,纯粹是细微的调整,没有更多的改变。
细节需要阅读,总的来说是可以理解的,但不能一蹴而就。
顺便说一下,我找到了我之前提到的讲座,有python的例子,供那些想了解XGboost 的人参考。在那里,或在接下来的讲座中,也会讨论正则化。
当然,这是不一样的。
当有很多功能的时候,我想这是很有用的。
将会对模型进行一些改变,纯粹是微妙的调整,没有更多的改变。
我们将看到什么样的变化--今天或明天将是下一个10万模型,我将决定是否在过冲中应用这个参数......
让我们看看价差会是多少--今天或明天会有另外10万个模型,我将决定是否在超限中应用这个参数......
我不知道是否有参数的手册,我正在阅读其他的东西
难道没有参数手册吗? 我还没有使用katb,我正在阅读其他东西。
好吧,这里只有一个设置和一个简单的描述,加上一个著名的片段与解释。
如果你仔细观察,你可以看到同一样本中的模型的财务结果可能非常不同--从5000到1500,即明显不同,这意味着种子确实影响了模型。我将假设是所选模型相似(我会检查),而它们的利润率略有不同,但几乎所有模型都在中间持平,这令人惊讶--它们在相同的利润率上是错误的(新数据中的异常现象?)
你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。
1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。
2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞中,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。
3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。
学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。
如果不同的 "sids "相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何你能掌握的深层空洞。
你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是组织ME学习的原则。
1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。
2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。
3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里弹跳。学习情况比1和2好,但也不是王牌。
学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。
如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇动它的方式不对,要么是我们的盒子里缺少任何可以把握的深空。
或一个鞋盒)
这些球是一个很好的解释。
和一个好的盒子自己摇晃。
你有一个盒子,里面创造了某种非常多的丘陵景观。我们在那里扔了很多球(这就是SID),我们的工作是确保大部分球都能打到最深的空洞里。这将是学习,这也是ME中学习结构的原则。
1.如果我们稍微抖动一下盒子,大部分的球就无法离开它们最初击中的空洞--学习就不会发生。
2.如果我们大力摇晃盒子,一些球就有机会击中并只停留在最深的空洞里,但较浅的空洞将保持不被填满,因为球会从那里弹出来。充分的学习将不会发生。
3.如果我们用中等力度摇晃盒子,只有最深和中间的空洞会被填满,但其余的球不会找到任何东西,会继续随机地在盒子里蹦跳。学习情况比1和2好,但也不是王牌。
学习方法总是有设置的--究竟如何和何时摇动箱子才能得到最有效的学习。
如果不同的 "sids "不相加,那么要么是学习算法出了问题--你摇错了,要么是我们的盒子里没有深槽可以抓取。