交易中的机器学习:理论、模型、实践和算法交易 - 页 2019

 
Aleksey Vyazmikin:

你可以亲自去做。

好吧,你去那里,情景悖论,我不能进入邮箱)网站有故障。如果成功了,我会写信给你和马克西姆。

 
Maxim Dmitrievsky:

并不复杂,你只需要弄清楚。

你根本不需要任何动力。我可以在笔记本电脑上学习LSTM,不需要任何显卡,只需几分钟。关于权力是一个神话。

)),嗯...值得商榷的说法。

... Обучение закончено...
 ============ Обучение заняло(миллисекунд): 26832. Эпох: 2693 ===========
 eta: 0.0100, alpha: 0.0050
 max_long_result: 0.9986, max_short_result: 0.9996
 min_long_result: 0.9979, min_short_result: 0.9950
在MQL中进行同样的操作需要10分钟或更长时间。如果主机的处理器或处理器本身有更多的内核,那么速度可以提高)))。
 
Farkhat Guzairov:

)),嗯...有争议的论断。

用MQL进行同样的操作需要10分钟或更长时间。如果主机的CPU或处理器本身有更多的内核,速度可以提高)))。

30秒内完成2700个历时的速度太快了

 
dr.mr. mom:

好了,你去吧,情景悖论,我不能进入我的个人信息)网站出现了故障。等事情弄清楚了,我会给你和马克西姆写信。

我给你写过信,信息是否传达到了?

 
Maxim Dmitrievsky:

在30秒内完成2700个epochs是太快了。

数据是不够的,数组好像有400个深度,但如果你把它加载到深度历史上,即使是带线程的C++也会太慢)))),但最可悲的是,最后你无法得到一个训练有素的系统,我有一个30000epoch的阈值,它停止训练,但你知道它不是训练好的狗屎,为什么这么...我认为这是因为碰撞,也就是说,在我看来,有一组数据在一种情况下说模型是短的,而在另一种情况下,这个相同的模型出现在一个长的,如果是这样,那就是我的错,但我没有时间去处理它((。正因为如此,我简单地减少了用于训练的输入数据集。

 
Maxim Dmitrievsky:

人......在你能理解的意义上,这并不复杂

通常,几层就够了,你不需要在外汇方面有太多的深度。

只是在架构上,有更先进的网络用于vr,比lstm更酷。可以从那里获利,还没有测试。所有的 "经典",如boostings和perseptrons,根本就不适合于VR。

是否需要更多的层次,只能根据所取得的结果来判断,我想......

还有哪些网络,你能说出它们的名字吗--我对网络的品种一点也不擅长。

我可以给你一个时尚网络的样本吗?

 
Farkhat Guzairov:

数据很小,数组好像有400个深度,但如果我把它加载到深度历史上,即使有线程的C++也会陷入混乱)))),但最可悲的是,最后我无法得到一个训练有素的系统,我有30000 epoch的里程碑,它停止训练,但你明白它不是训练有素的狗屎,为什么它是这样...我认为这是因为碰撞,也就是说,在我看来,有一组数据在一种情况下说模型是短的,而在另一种情况下,这个相同的模型出现在一个长的,如果是这样,那就是我的错,但我没有时间去处理它((。正因为如此,我干脆减少了用于训练的输入数据集。

为什么要有这么多的历时......通常1000个甚至100个就足够了,因为动态循环率。

 
Aleksey Vyazmikin:

是否需要更多的层次,只能根据所取得的成果来判断,我想......

还有哪些网络,你能说出它们的名字吗--我对网络的变化一点也不擅长。

我可以给你一个样本,让你在某种花哨的网络中运行吗?

我只是在学习神经网络。我已经在这里写过了。它们是新的卷积和变换器等等,大多用于语言和声音处理。

他们的数据集是以特殊的方式准备的,普通的数据集将无法工作。
 
Maxim Dmitrievsky:

我只是在学习神经网络。我已经在这里写过了。这些是新的卷积和变换器等等,主要用于语言和声音处理。

他们有特殊的数据集,普通的数据集是不行的。

如果你知道如何准备,你可以做到...

 
Maxim Dmitrievsky:

为什么要有这么多的历时......通常是1000个甚至100个,有一个动态的学习率

目标是获得最大的训练精度,即精度达到1。由于主权重是随机设置的,有时epochs可能小于1000。