交易中的机器学习:理论、模型、实践和算法交易 - 页 607

 
Vizard_

我们来谈谈学习DAO的问题,唉,TAU))。


不,不...这里只有DAO...

 
Vizard_

Package learningCurve, R, 学习曲线。

它们如何帮助计算神经元的数量?
 
elibrarius
它们如何帮助计算神经元的数量?

如果错误停止急剧下降,那么就停止教学 :)

 
马克西姆-德米特里耶夫斯基

如果错误停止急剧下降,那么就停止学习 :)

我们可以只训练已经定义好结构的网络并寻找错误。首先,我们需要确定结构,即神经元的数量,然后你可以在其上寻找错误。

也就是说,问题是训练前的学习曲线如何帮助确定最佳的神经元数量。

或通过任何其他方法。

 
elibrarius

我们可以只训练一个已经给定结构的网络并寻找错误。首先,我们需要定义结构,即我们可以观察到错误的神经元的数量。

也就是说,问题在于学习前的learningCurve如何帮助确定最佳的神经元数量。

或通过任何其他方法。


事实证明,数字并不重要......当误差停止下降时,学习就会停止,不会发生再训练。所以可以有大量的神经元

如果我理解正确的话。

 
Vizard_

我们来谈谈认知DAO,唉,TAU))。


认知的相对性是由许多原因造成的,其中我们首先应该提到意识对感知和理解同一现象的行为的不同准备,导致认知的不同结果(反应、决策、行动等)。

 
马克西姆-德米特里耶夫斯基

事实证明,多少次并不重要......当错误不再下降时,训练就会停止,而且不会再进行训练。所以可能有大量的神经元

如果我理解正确的话。

这是一个早期站点。我没有看到与learningCurve软件包有任何联系。

在提前停止的方法中,当网络的复杂性达到一个最佳值时,训练就会停止。 这个时刻由验证误差的时间行为来估计。

但它也有其弱点:太大的网络会提前停止其学习,这时非线性因素还没有来得及完全显现。也就是说,这种技术充满了寻找弱非线性解决方案的烦恼。

Vizard_

错误(2个)。

请写得更详细些。learningCurve是如何帮助确定网络的神经元数量的?

 

对于正则化我不能说什么,我没有做过实验。

但提前停止会导致过度拟合。由于测试和训练数据的高度相似性,它在某种程度上适用于图片识别,这就是为什么书籍和文章中经常推荐它。但它不适合用于外汇。


我建议学习k-fold交叉验证法。

让我们用五次犯规。假设一个训练表有1000行。

1)在第201-1000行上训练模型。如果是神经元,不需要提前休息,只要教给神经元一定数量的历时足以达到高精确度。预测第1-200行。
2)重新训练模型,现在在第1-200行和第401-1000行,使用相同的模型参数,一般都是相同的设置。预测第201-400行。
3)重新训练模型,现在在第1-400行和第601-1000行,使用相同的模型参数,一般都是相同的设置。预测第401-600行。
4)重新训练模型,现在在第1-600行和第801-1000行上,使用相同的模型参数,一般都是相同的设置。预测601-800行。
5)重新训练模型,现在是在第1-800行,使用相同的模型参数和一般所有相同的设置。预测第801-1000行。

因此,我们有五个用相同的学习算法和相同的参数创建的模型。还有五个预测,每个预测都是根据模型未知的数据做出的。
五个预测数组相互加起来,得到一个长度为1000的长数组,我们用函数R2对其与真实数据进行评估。这将评估我们的模型、训练方法和所有。
然后我们选择模型参数(激活函数、层数及其大小等),每次我们做所有这些步骤(训练5个模型,预测每个模型独有的5个块,合并它们,R2),得到越来越好的估计。

为了预测真实交易中的新数据--我们对五个模式中的每一个进行预测,对于五个结果找出平均值,这将是对新数据的最终预测。

p.s. 犯规次数最好取几十次,在这个例子中,为了简单描述,只有五次。

 

一种特殊的获取、检测类别是以下的类比操作:原因+条件→后果,这里的后果只有在原因和条件结合时才会出现。将这一操作应用于部分和整体的范畴,可以发现结构的范畴,它起着必要条件的作用:部分+结构→整体,也就是说,如果没有相应的结构条件,就不能得到一个整体,当沙粒只是躺在平面上时,就不能从足够数量的沙粒中得到一座山。从元素中获得一个系统的前提是元素之间的关系和联系:元素+联系→系统。当简单的缝衣针被改造成缝纫机针时,形式的重要性就凸显出来了,为此,针眼被移至针尖。为了实现针的新质量,必须改变配置:形式+配置→质量。这个例子同时显示了一个系统的对立面的发展规律--质量的变化不一定需要数量的变化。

 

隐藏元素的最佳数量是一个具体问题,需要通过经验来解决。但作为一般经验法则:隐藏的神经元越多,过度学习的风险越大。在这种情况下,系统并不学习数据的能力,而是记住模式本身和它们所包含的任何噪音。这样的网络在样本中表现良好,但在样本外则表现不佳。我们如何才能避免过度学习?有两种流行的方法:早期停止和正则化。笔者更喜欢自己的,与全球搜索有关的。

让我们总结一下这一部分的故事。确定网络规模的最佳方法是遵循奥卡姆原则。也就是说,对于具有相同性能的两个模型,参数较少的模型会更成功地进行泛化。这并不意味着我们一定要选择一个简单的模型,以提高性能。反之亦然:大量的隐藏神经元和层并不能保证优越性。今天,人们对大型网络给予了太多的关注,而对其设计原则的关注则太少。大的不一定是好的。


http://ai-news.ru/2016/05/tehnologii_fondovogo_rynka_10_zabluzhdenij_o_nejronnyh_setyah_578372.html

Технологии фондового рынка: 10 заблуждений о нейронных сетях
Технологии фондового рынка: 10 заблуждений о нейронных сетях
  • ai-news.ru
Нейронные сети - один из самых популярных классов алгоритмов для машинного обучения. В финансовом анализе они чаще всего применяются для прогнозирования, создания собственных индикаторов, алгоритмического трейдинга и моделирования рисков. Несмотря на все это, репутация у нейронных сетей подпорчена, поскольку результаты их применения можно...
原因: