交易中的机器学习:理论、模型、实践和算法交易 - 页 1512 1...150515061507150815091510151115121513151415151516151715181519...3399 新评论 Maxim Dmitrievsky 2019.07.06 10:32 #15111 凯沙-鲁托夫。 事实上,有时我很羡慕马克斯-杰尼森科,他的依附地位,有时你在工作中感到非常厌烦,以至于神经抽搐,你在凌晨3点回家,你没有时间陪你的妻子或孩子,你只是去睡觉,昏昏欲睡,你在8点又起床,如此循环下去...... 好了,你不应该繁殖,你还不应该有女人。你必须先成长为一个男人。等你长大了,你就不需要再写废话了。但是,当你试图通过任何手段来改变事情时,你更有可能在监狱或精神病院里结束。 因为在你的情况下,它是如此明显。对了,先不要为自己创造偶像,否则桑尼奇就会被打嗝弄烦。 Andrey Dik 2019.07.07 13:02 #15112 什么是跨多个符号的网格的同时训练,即在多个符号上使用相同的网格参数(权重)时? Кеша Рутов 2019.07.07 13:14 #15113 安德烈-迪克 在几个符号上同时训练一个网格,即当一个网格的相同参数(权重)被用于几个符号时,其名称是什么? 我会称其为 "缩减学习",或 "缩减学习",为求重要,等待佩尔韦连科或杰尼森科的 "缩减学习 "文章,用先进的OOP(>5个继承深度),90%的准确率和测试中相同(相等)的利润和缩减比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数)) Andrey Dik 2019.07.07 13:17 #15114 凯沙-鲁托夫。 我会称其为 "平仓学习",或 "平仓学习",为求重要,等待佩尔韦连科或杰尼森科的 "平仓学习 "文章,用高级的OOP(至少5个继承深度),90%的准确率和测试中相同(相等)的利润和平仓比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数))。 但重点是什么? Кеша Рутов 2019.07.07 13:30 #15115 Andrey Dik: 但在商业上呢? 在商业中,通常应该是这样的,在输入端有一个以某种方式预处理的BP "束",在输出端有一个每个BP的未来属性的向量。但为此我们需要同步系列,不能从交易中心得到它们,应该自己做,轻微的不同步会给人一个测试者的圣杯,但真正的交易会失败。 Maxim Dmitrievsky 2019.07.07 13:54 #15116 安德烈-迪克 什么是在多个符号上同时进行网格学习,即在多个符号上使用相同的网格参数(权重)时? 转移学习 mb Кеша Рутов 2019.07.07 14:17 #15117 马克西姆-德米特里耶夫斯基。 转移学习mb. 我需要马上写一篇关于"缩减学习 " 的文章。 迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层被用作另一个网格的备用部分,它被用来为图片定型。 Andrey Dik 2019.07.07 14:30 #15118 凯沙-鲁托夫。 在业务中,通常应该是这样的,一个以某种方式预处理的BP "束",在输出端为每个BP提供一个未来属性的向量。但这需要同步的行,你不能从DC得到它,你必须自己建立它,稍微去掉同步,你就能得到一个测试者的圣杯,但真正的圣杯会失败。 如果我想使用同步系列,我就不会有这样的问题,因为我没有连接到TP,至少我是这样。 Andrey Dik 2019.07.07 14:32 #15119 马克西姆-德米特里耶夫斯基。 转移学习mb. 这项活动的重点是确定稳定的模式(或你想称之为什么),它们是稳定的,因为它们在不同的BP上起作用,我在这个领域的胆小实验表明,这在原则上是可能的......并因此增加了稳健性(降低了拟合度)。 Maxim Dmitrievsky 2019.07.07 15:30 #15120 凯沙-鲁托夫。 我需要马上写一篇关于"缩减学习 " 的文章。 迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层作为备用部分被用于另一个网格,它被用于图片的风格化。 没有 "鼻涕虫"。 1...150515061507150815091510151115121513151415151516151715181519...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
事实上,有时我很羡慕马克斯-杰尼森科,他的依附地位,有时你在工作中感到非常厌烦,以至于神经抽搐,你在凌晨3点回家,你没有时间陪你的妻子或孩子,你只是去睡觉,昏昏欲睡,你在8点又起床,如此循环下去......
好了,你不应该繁殖,你还不应该有女人。你必须先成长为一个男人。等你长大了,你就不需要再写废话了。但是,当你试图通过任何手段来改变事情时,你更有可能在监狱或精神病院里结束。 因为在你的情况下,它是如此明显。对了,先不要为自己创造偶像,否则桑尼奇就会被打嗝弄烦。
在几个符号上同时训练一个网格,即当一个网格的相同参数(权重)被用于几个符号时,其名称是什么?
我会称其为 "缩减学习",或 "缩减学习",为求重要,等待佩尔韦连科或杰尼森科的 "缩减学习 "文章,用先进的OOP(>5个继承深度),90%的准确率和测试中相同(相等)的利润和缩减比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数))
我会称其为 "平仓学习",或 "平仓学习",为求重要,等待佩尔韦连科或杰尼森科的 "平仓学习 "文章,用高级的OOP(至少5个继承深度),90%的准确率和测试中相同(相等)的利润和平仓比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数))。
但重点是什么?
但在商业上呢?
在商业中,通常应该是这样的,在输入端有一个以某种方式预处理的BP "束",在输出端有一个每个BP的未来属性的向量。但为此我们需要同步系列,不能从交易中心得到它们,应该自己做,轻微的不同步会给人一个测试者的圣杯,但真正的交易会失败。
什么是在多个符号上同时进行网格学习,即在多个符号上使用相同的网格参数(权重)时?
转移学习 mb
转移学习mb.
我需要马上写一篇关于"缩减学习 " 的文章。
迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层被用作另一个网格的备用部分,它被用来为图片定型。
在业务中,通常应该是这样的,一个以某种方式预处理的BP "束",在输出端为每个BP提供一个未来属性的向量。但这需要同步的行,你不能从DC得到它,你必须自己建立它,稍微去掉同步,你就能得到一个测试者的圣杯,但真正的圣杯会失败。
如果我想使用同步系列,我就不会有这样的问题,因为我没有连接到TP,至少我是这样。
转移学习mb.
这项活动的重点是确定稳定的模式(或你想称之为什么),它们是稳定的,因为它们在不同的BP上起作用,我在这个领域的胆小实验表明,这在原则上是可能的......并因此增加了稳健性(降低了拟合度)。
我需要马上写一篇关于"缩减学习 " 的文章。
迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层作为备用部分被用于另一个网格,它被用于图片的风格化。
没有 "鼻涕虫"。