交易中的机器学习:理论、模型、实践和算法交易 - 页 1512

 
凯沙-鲁托夫

事实上,有时我很羡慕马克斯-杰尼森科,他的依附地位,有时你在工作中感到非常厌烦,以至于神经抽搐,你在凌晨3点回家,你没有时间陪你的妻子或孩子,你只是去睡觉,昏昏欲睡,你在8点又起床,如此循环下去......

好了,你不应该繁殖,你还不应该有女人。你必须先成长为一个男人。等你长大了,你就不需要再写废话了。但是,当你试图通过任何手段来改变事情时,你更有可能在监狱或精神病院里结束。 因为在你的情况下,它是如此明显。对了,先不要为自己创造偶像,否则桑尼奇就会被打嗝弄烦。

 
什么是跨多个符号的网格的同时训练,即在多个符号上使用相同的网格参数(权重)时?
 
安德烈-迪克
在几个符号上同时训练一个网格,即当一个网格的相同参数(权重)被用于几个符号时,其名称是什么?

我会称其为 "缩减学习",或 "缩减学习",为求重要,等待佩尔韦连科或杰尼森科的 "缩减学习 "文章,用先进的OOP(>5个继承深度),90%的准确率和测试中相同(相等)的利润和缩减比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数))

 
凯沙-鲁托夫

我会称其为 "平仓学习",或 "平仓学习",为求重要,等待佩尔韦连科或杰尼森科的 "平仓学习 "文章,用高级的OOP(至少5个继承深度),90%的准确率和测试中相同(相等)的利润和平仓比例,或像过去的好日子一样,没有任何测试,都在Lern和martin,一个纯指数))。

但重点是什么?

 
Andrey Dik:

但在商业上呢?

在商业中,通常应该是这样的,在输入端有一个以某种方式预处理的BP "束",在输出端有一个每个BP的未来属性的向量。但为此我们需要同步系列,不能从交易中心得到它们,应该自己做,轻微的不同步会给人一个测试者的圣杯,但真正的交易会失败。

 
安德烈-迪克
什么是在多个符号上同时进行网格学习,即在多个符号上使用相同的网格参数(权重)时?

转移学习 mb

 
马克西姆-德米特里耶夫斯基

转移学习mb.

我需要马上写一篇关于"缩减学习 " 的文章。

迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层被用作另一个网格的备用部分,它被用来为图片定型。

 
凯沙-鲁托夫

在业务中,通常应该是这样的,一个以某种方式预处理的BP "束",在输出端为每个BP提供一个未来属性的向量。但这需要同步的行,你不能从DC得到它,你必须自己建立它,稍微去掉同步,你就能得到一个测试者的圣杯,但真正的圣杯会失败。

如果我想使用同步系列,我就不会有这样的问题,因为我没有连接到TP,至少我是这样。

 
马克西姆-德米特里耶夫斯基

转移学习mb.

这项活动的重点是确定稳定的模式(或你想称之为什么),它们是稳定的,因为它们在不同的BP上起作用,我在这个领域的胆小实验表明,这在原则上是可能的......并因此增加了稳健性(降低了拟合度)。

 
凯沙-鲁托夫

我需要马上写一篇关于"缩减学习 " 的文章。

迁移学习 是指在一个数据集或算法上训练出来的选定的(通常是前1-2层)神经元/层作为备用部分被用于另一个网格,它被用于图片的风格化。

没有 "鼻涕虫"。