交易中的机器学习:理论、模型、实践和算法交易 - 页 630

[删除]  
尤里-阿索连科
我不会断言,但在我看来,这些都是幻觉。只是出于一般原因。
为什么,弗拉基米尔-佩雷文科在他的文章中有一些信息,他们在数百个输入上学习得非常快
 
马克西姆-德米特里耶夫斯基
为什么,弗拉基米尔-佩列文科在他的文章里有信息,他们在数百个输入上训练得非常快

我没有读过这些文章,也不会去争论。我只见过图片)。

比方说,MLP可以在10-15分钟内得到完美的训练,它的功能也会很完美。是的,但那是如果数据被很好地分类,集被分开的话。

如果市场上(或你的训练样本中)没有可分离的集合,那么你可以永远训练你喜欢的任何东西,也不会有任何结果。

 
马克西姆-德米特里耶夫斯基
为什么,弗拉基米尔-佩列文科在他的文章里有信息,他们在数百个输入上学习得非常快

一切都取决于架构和数据量。
用于模式识别的网络在GPU上学习了一个星期。而且有几十层的三维张量。

[删除]  
阿列克谢-特伦特夫

这完全取决于架构和数据量。
用于模式识别的网络在GPU上需要一个星期的时间来学习。而且有几十层的三维张量。

在那里,他描述了更简单的方法--例如,玻尔兹曼 网+MLP。

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
尤里-阿索连科

我没有读过这些文章,也不会去争论。我只见过图片)。

比方说,MLP可以在10-15分钟内得到完美的训练,它的功能也会很完美。是的,但那是如果数据被很好地分类,集被分开的话。

如果在市场上(或在你的训练样本中)根本没有可分离的集合,那么你可以永远随心所欲地训练,也不会有结果。

为了 "科学知识",让我们简单地进行一次实验。
让我们选择数据、维度、MLP架构、输出数据。
而每个人都会用自己的工具做自己的测试。

火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每一个新的建筑。=)

 
阿列克谢-特伦特夫

为了 "科学知识",我们就做个实验吧。
让我们选择数据、维度、MLP架构、输出。
而每个人都会用自己的工具做自己的测试。

火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每个新的建筑。=)

(我担心我太弱了)。我认为解决抽象的问题没有意义。而意见的交流根本不是火焰。我从这个火焰中得到了很多。并走向了不同的方向)。而且,如果没有那些抨击,我还不如去打听一下。
[删除]  

我在此分享我的NS的第一个成果。架构与神描述的一样,我没有做任何改变。

高原是相当均匀的,NS在1000次时已经学得很好,结果没有进一步提高。

我在上个月已经学习了15分钟。我花了~0.65美元用于培训。 我每月的交易数量是~300。

前两个月的结果还不错,但也不是太差。

我将尝试增加一个隐藏层,寻找更多的错误:),然后我将尝试进行更长时间的训练。

 

马克西姆-德米特里耶夫斯基
为什么,弗拉基米尔-佩雷文科在他的文章里有信息,他们在数百个输入上学习得非常快


所有的文章都包含数据集和脚本,可以通过复制来获得具体在你的硬件上学习时间的真实数据。有两个隐藏层的DNN训练时间最长为1分钟。

祝好运

 
阿列克谢-特伦特夫

为了 "科学知识",我们就做个实验吧。
让我们选择数据、维度、MLP架构、输出。
而每个人都会用自己的工具做自己的测试。

火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每个新的建筑。=)

举个例子。首先是
 
马克西姆-德米特里耶夫斯基

我在此分享我的NS的第一个成果。架构与神描述的一样,我没有做任何改变。

高原是相当均匀的,NS在1000次时已经学得很好,结果没有进一步提高。

我在上个月已经学习了15分钟。我花了~0.65美元用于培训。 我每月的交易数量是~300。

前两个月的结果还不错,但也不是太差。

我将尝试增加一个隐藏层,寻找更多的错误:),然后我将尝试进行更长时间的训练。

你在第二层的输入有三个神经元被sigmoid处理吗?你如何调整第二层的权重,比如说范围从-1到1,步长为0.1。

在我的网络中,处理完第二层后,交易数量 下降了,我的结果也没有多大改善。这不同于用9个输入和一个输出神经元来拟合一个感知器,然后用另一个独立的感知器,用第一个感知器的保存设置再次拟合它,等等。