交易中的机器学习:理论、模型、实践和算法交易 - 页 2269 1...226222632264226522662267226822692270227122722273227422752276...3399 新评论 Rorschach 2021.01.04 23:06 #22681 Maxim Dmitrievsky: 我写了我的甘,那里没有什么复杂的东西。但它不是递归的,我得重新做。一个关于火炬的例子。 这里是另一个例子 当我有足够的时间时,我就会试着去弄清楚。 Maxim Dmitrievsky 2021.01.04 23:09 #22682 Rorschach: 我将有时间来尝试并弄清楚它。 我通过我的库,对上面的不同生成模型做了一个比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。 Rorschach 2021.01.04 23:31 #22683 Maxim Dmitrievsky: 我通过我的lib,对上述库中的不同生成模型做了比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。 网络似乎有很差的噪音容忍度,也许这就是为什么结果更差。 我想在每个纪元的数据中混入噪声,但我一直没能做到这一点。 Maxim Dmitrievsky 2021.01.04 23:41 #22684 Rorschach: 这些网络似乎不能很好地容忍噪音,这可能是为什么结果更差。 我想在每个纪元的数据中加入噪音,但一直没能做到这一点。 看上去他们好像很努力地在进行平均分配。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,你得到的数值都太接近了。 Rorschach 2021.01.04 23:45 #22685 Maxim Dmitrievsky: 这就像他们在平均化它,真的很难。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,这些数值都太接近了。 减少历史的深度如何? Maxim Dmitrievsky 2021.01.04 23:48 #22686 Rorschach: 减少故事的深度如何? 我做过不同的事情,自动编码器和gm的输出都给出了强烈的平均值。如果自动编码器根据定义进行压缩,不清楚为什么GANs会这样做。辍学似乎也无济于事。 Rorschach 2021.01.04 23:56 #22687 Maxim Dmitrievsky: 自动编码器和gm的输出都给出了高度平均的数值。如果自动编码器的定义是压缩,那就不清楚为什么GANs会这样做。辍学似乎也无济于事。 平均化和模糊化大致上是一回事,对吗?我发现了这篇文章 。 Maxim Dmitrievsky 2021.01.05 00:03 #22688 Rorschach: 平均化和模糊化大致上是一回事,对吗?我发现了这篇文章 。 嗯,是的,数据压缩。 我明白数字的意思,但表格数据的效果更差。 这就是为什么有TabularGAN的原因。在上面的包装中。 Rorschach 2021.01.05 00:06 #22689 Maxim Dmitrievsky: 嗯,是的,信息压缩。 数字我懂,但表格数据就更糟糕了 阅读对角线,似乎是关于不同的噪声分布和不适当的度量。 最好用温室条件下的测试数据进行检查。 Rorschach 2021.01.05 16:48 #22690 Rorschach: 有意思的是,电网反转的主题。向输入端输送噪音。在输出端获得一个频谱。 https://arxiv.org/pdf/1806.08734.pdf 1...226222632264226522662267226822692270227122722273227422752276...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我写了我的甘,那里没有什么复杂的东西。但它不是递归的,我得重新做。
一个关于火炬的例子。
这里是另一个例子当我有足够的时间时,我就会试着去弄清楚。
我将有时间来尝试并弄清楚它。
我通过我的库,对上面的不同生成模型做了一个比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。
我通过我的lib,对上述库中的不同生成模型做了比较。事实证明,GMM对表格数据(有增量的数据框架)效果更好。然后是共线性,这是第二大效率。表甘等神经网络模型的效果更差。但我可能做错了什么。还有这个 选项。
网络似乎有很差的噪音容忍度,也许这就是为什么结果更差。
我想在每个纪元的数据中混入噪声,但我一直没能做到这一点。
这些网络似乎不能很好地容忍噪音,这可能是为什么结果更差。
我想在每个纪元的数据中加入噪音,但一直没能做到这一点。
看上去他们好像很努力地在进行平均分配。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,你得到的数值都太接近了。
这就像他们在平均化它,真的很难。输出的是类似的样本,变化不大。无论你如何改变潜伏向量,这些数值都太接近了。
减少历史的深度如何?
减少故事的深度如何?
我做过不同的事情,自动编码器和gm的输出都给出了强烈的平均值。如果自动编码器根据定义进行压缩,不清楚为什么GANs会这样做。辍学似乎也无济于事。
自动编码器和gm的输出都给出了高度平均的数值。如果自动编码器的定义是压缩,那就不清楚为什么GANs会这样做。辍学似乎也无济于事。
平均化和模糊化大致上是一回事,对吗?我发现了这篇文章 。
平均化和模糊化大致上是一回事,对吗?我发现了这篇文章 。
嗯,是的,数据压缩。
我明白数字的意思,但表格数据的效果更差。
这就是为什么有TabularGAN的原因。在上面的包装中。
嗯,是的,信息压缩。
数字我懂,但表格数据就更糟糕了阅读对角线,似乎是关于不同的噪声分布和不适当的度量。
最好用温室条件下的测试数据进行检查。有意思的是,电网反转的主题。
向输入端输送噪音。在输出端获得一个频谱。
https://arxiv.org/pdf/1806.08734.pdf