Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
我不会断言,但在我看来,这些都是幻觉。只是出于一般原因。
为什么,弗拉基米尔-佩列文科在他的文章里有信息,他们在数百个输入上训练得非常快
我没有读过这些文章,也不会去争论。我只见过图片)。
比方说,MLP可以在10-15分钟内得到完美的训练,它的功能也会很完美。是的,但那是如果数据被很好地分类,集被分开的话。
如果市场上(或你的训练样本中)没有可分离的集合,那么你可以永远训练你喜欢的任何东西,也不会有任何结果。
为什么,弗拉基米尔-佩列文科在他的文章里有信息,他们在数百个输入上学习得非常快
一切都取决于架构和数据量。
用于模式识别的网络在GPU上学习了一个星期。而且有几十层的三维张量。
这完全取决于架构和数据量。
用于模式识别的网络在GPU上需要一个星期的时间来学习。而且有几十层的三维张量。
在那里,他描述了更简单的方法--例如,玻尔兹曼 网+MLP。
https://www.mql5.com/ru/articles/1103#2_2_2
我没有读过这些文章,也不会去争论。我只见过图片)。
比方说,MLP可以在10-15分钟内得到完美的训练,它的功能也会很完美。是的,但那是如果数据被很好地分类,集被分开的话。
如果在市场上(或在你的训练样本中)根本没有可分离的集合,那么你可以永远随心所欲地训练,也不会有结果。
为了 "科学知识",让我们简单地进行一次实验。
让我们选择数据、维度、MLP架构、输出数据。
而每个人都会用自己的工具做自己的测试。
火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每一个新的建筑。=)
为了 "科学知识",我们就做个实验吧。
让我们选择数据、维度、MLP架构、输出。
而每个人都会用自己的工具做自己的测试。
火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每个新的建筑。=)
我在此分享我的NS的第一个成果。架构与神描述的一样,我没有做任何改变。
高原是相当均匀的,NS在1000次时已经学得很好,结果没有进一步提高。
我在上个月已经学习了15分钟。我花了~0.65美元用于培训。 我每月的交易数量是~300。
前两个月的结果还不错,但也不是太差。
我将尝试增加一个隐藏层,寻找更多的错误:),然后我将尝试进行更长时间的训练。
马克西姆-德米特里耶夫斯基。
为什么,弗拉基米尔-佩雷文科在他的文章里有信息,他们在数百个输入上学习得非常快
所有的文章都包含数据集和脚本,可以通过复制来获得具体在你的硬件上学习时间的真实数据。有两个隐藏层的DNN训练时间最长为1分钟。
祝好运
为了 "科学知识",我们就做个实验吧。
让我们选择数据、维度、MLP架构、输出。
而每个人都会用自己的工具做自己的测试。
火焰的数量会变少。
顺便说一下,我们可以制定这样一个传统,并与整个世界一起测试每个新的建筑。=)
我在此分享我的NS的第一个成果。架构与神描述的一样,我没有做任何改变。
高原是相当均匀的,NS在1000次时已经学得很好,结果没有进一步提高。
我在上个月已经学习了15分钟。我花了~0.65美元用于培训。 我每月的交易数量是~300。
前两个月的结果还不错,但也不是太差。
我将尝试增加一个隐藏层,寻找更多的错误:),然后我将尝试进行更长时间的训练。
你在第二层的输入有三个神经元被sigmoid处理吗?你如何调整第二层的权重,比如说范围从-1到1,步长为0.1。
在我的网络中,处理完第二层后,交易数量 下降了,我的结果也没有多大改善。这不同于用9个输入和一个输出神经元来拟合一个感知器,然后用另一个独立的感知器,用第一个感知器的保存设置再次拟合它,等等。