交易中的机器学习:理论、模型、实践和算法交易 - 页 2269

 
Maxim Dmitrievsky:

我写了我的甘,那里没有什么复杂的东西。但它不是递归的,我得重新做。

一个关于火炬的例子。

这里是另一个例子

当我有足够的时间时,我就会试着去弄清楚。

 
Rorschach:

我将有时间来尝试并弄清楚它。

我通过我的库,对上面的不同生成模型做了一个比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。

 
Maxim Dmitrievsky:

我通过我的lib,对上述库中的不同生成模型做了比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。

网络似乎有很差的噪音容忍度,也许这就是为什么结果更差。

我想在每个纪元的数据中混入噪声,但我一直没能做到这一点。

 
Rorschach:

这些网络似乎不能很好地容忍噪音,这可能是为什么结果更差。

我想在每个纪元的数据中加入噪音,但一直没能做到这一点。

看上去他们好像很努力地在进行平均分配。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,你得到的数值都太接近了。

 
Maxim Dmitrievsky:

这就像他们在平均化它,真的很难。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,这些数值都太接近了。

减少历史的深度如何?

 
Rorschach:

减少故事的深度如何?

我做过不同的事情,自动编码器和gm的输出都给出了强烈的平均值。如果自动编码器根据定义进行压缩,不清楚为什么GANs会这样做。辍学似乎也无济于事。

 
Maxim Dmitrievsky:

自动编码器和gm的输出都给出了高度平均的数值。如果自动编码器的定义是压缩,那就不清楚为什么GANs会这样做。辍学似乎也无济于事。

平均化和模糊化大致上是一回事,对吗?我发现了这篇文章

 
Rorschach:

平均化和模糊化大致上是一回事,对吗?我发现了这篇文章

嗯,是的,数据压缩。

我明白数字的意思,但表格数据的效果更差。

这就是为什么有TabularGAN的原因。在上面的包装中。

 
Maxim Dmitrievsky:

嗯,是的,信息压缩。

数字我懂,但表格数据就更糟糕了

阅读对角线,似乎是关于不同的噪声分布和不适当的度量。

最好用温室条件下的测试数据进行检查。
 
Rorschach:

有意思的是,电网反转的主题。

向输入端输送噪音。在输出端获得一个频谱。

https://arxiv.org/pdf/1806.08734.pdf