如何正确形成NS的输入值。 - 页 24

 
Reshetov писал (а)>>

最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然,交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。

这是无稽之谈...重绘指标与插值和未来预测有什么关系?

 
Reshetov писал (а)>>

最后,对于那些认为NS的插值功能对交易来说是必要的书呆子,我可以提供一个具体的反驳意见。只要采取任何重绘指标或震荡器,你将得到一个惊人的历史插值,不需要任何神经网络和棘手的架构。当然交易者回避重绘指数,因为适合插值或近似的东西不适合在非稳态条件下进行推断。

你只是不太明白被近似的是什么。有一个维数为N的输入向量X和一个维数为M的输出向量Y。NS建立了它们之间的关系,即它近似于依赖关系Y=F(X)。Y可以是任何东西,甚至是三叉戟,NS不在乎,它解决的正是训练样本上的近似F(X)问题。

 

重绘是人民的鸦片!!!。))))

 
Mathemat писал (а)>>
我甚至会加强这个建议:除以10。出于某种原因,我想到了关于随机共振的话题。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的思考...

在我看来,人们对NS状态的性质存在误解,可以说是 "过度训练 "和 "训练不足"。这些术语指的是与训练样本的长度、特定NS的自由参数(突触)的数量以及测试集上泛化误差的大小有关的性状。如果样本长度与可调权重的数量相当(在极限范围内小于或等于),那么在训练样本上,我们将得到NS响应与输入向量的任何精确匹配,但在测试样本上,我们将得到完全的胡说八道!这是一个过度训练网络的例子。如果训练样本长度太长(多长是一个单独的问题),我们将在训练样本上得到一个糟糕的匹配(在极限情况下,我们将只确定样本的平均值)。在测试样本上,我们将得到同样的东西--平均值。

可以看出,训练纪元的数量是没有问题的。此外,为了实现全局最小值(学习NS),我们需要在重新定义的非线性方程组的所有可能的解决方案中(NS是做什么的),选择一个将给我们带来最低的累积误差(将至少满足系统的所有方程)。当然,这个条件是由趋向于极限值的解决方案(发现突触的权重)来满足的--当训练历时数趋向于无穷大时得到。

因此,我们不应该把NS的过度训练或训练不足与训练历时的数量混为一谈--后者应该总是合理的大(具体数量应该通过实验来确定)。

我在文献中遇到了关于 "早期停止问题 "的讨论,但我的印象是,作者并不十分了解他们所写的东西的性质。事实上,如果我们采取训练样本长度小于最佳长度的情况,那么在训练过程中会出现这样一种情况,即测试集上的误差首先会减少,然后随着训练周期数的进一步增加,又会开始增长......。嗯,那是另一个故事,同志们!"。

 

既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。

我甚至没有谈及输入与自由度的比例,假设它至少是理论所建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎对这一点描述得很清楚。

 
Mathemat писал (а)>>

既然已经有足够多的NN大人物聚集在这里,我就退休吧。我的意见是无足轻重的,因为我是神经网络的业余爱好者。

我甚至没有谈到输入与自由度的比例,假设它至少是理论建议的10。我只说了验证部分的TF通过最小值的时刻。如果我没记错的话,舒姆斯基似乎也对它进行了相当生动的描述。

数学成绩优异也无妨,请不要被吓倒:) 。我想其他人也会加入这个请求。

 
Mathemat писал (а)>>
我想进一步加强这个建议:除以10。由于某些原因,我想到了一个关于随机共振的分支。将网格训练到底可以将目标函数驱动到一个深度最小值,即稳定状态。稳定的状态根本不是金融市场的典型。它们是准稳定的,也就是说,在哪怕是轻微的 "噪音 "影响下,它们随时都会变成一场灾难(趋势)。但这只是哲学上的反思......

嗯,我的意思是同样的事情。只是使用了 "稳态 "一词,而不是流行的 "稳态 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。


只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。根据经验,其他人有可能只需要接受10%的培训。

 
Reshetov писал (а)>>

嗯,这也是我的意思。只是使用了 "稳态 "一词,而不是流行的 "稳定 "一词。这两个词的意思是,统计(拟合)数据接近于概率性的。但任何与金融工具打过交道的人都很清楚,由于非稳态性,统计数据对它们并不适用。


只是根据经验,我发现网格需要重新训练大约三分之一。不过,这同样取决于投入是否充分。其他人有可能根据经验只需要训练10%。


根据Haikin的说法,只有在模式数量不够多的情况下,在训练和测试样本上的完全训练结果才可能不同。

如果有足够的模式,完全训练对测试样本产生的结果比上述早期断点的结果更好。

根据我的经验,我倾向于相信这些结果。



至于线性神经网络,如果它成功地获得了具有足够可靠性的积极结果,那么只能有一个结论:神经网络是无用的。

 
TheXpert писал (а)>>

这是无稽之谈...重绘指标与插值和未来预测有什么关系?

亲爱的先生,我在哪里宣称内插法与未来有关?去看看眼科医生,仔细阅读帖子,而不是乱扔表达。我已经报告并为特别有天赋的人重申,推断对未来是必要的。


我的帖子是对rip 的帖子的回应:


------------------ 报价 ------------------------


撕裂 14.07.2008 00:01
雷舍托夫 写道(a)>>

对。架构,有了适当的投入,就不再是问题了。你可以说:输入是一切,架构是什么。


在这里,先生们拿起正常的输入,用MTS "Sombo " 得到适当的结果

我在某种程度上同意你的观点。但是,网络结构起着很大的作用......例如,RBF-网络在解决一些插值任务方面要好得多。

 
TheXpert писал (а)>>

根据Heikin的说法,只有在模式数量不够多的情况下,才会出现对训练和测试样本进行充分训练的结果差异。

书呆子先生,正常人有自己的大脑和经验,而书呆子引用其他书呆子的话是因为没有自己的大脑,也不可能有。


海金很可能是在一个固定的环境中训练网络,因此他的结论。在非稳态环境中,如果给它太多的模式,网络可能根本无法学习,因为,例如在交易中,今天一个模式指向买入,下一次它指向卖出。因为任何进场都有一定概率的虚假信号。