在交易中使用神经网络。 - 页 3

 
StatBars писал(а)>>

图片显示了非正态化的数据,来自不同的数据,我只是举了一个例子说明我做了什么(结果是怎样的)。

这里是脚本,你可以用它来看看输出会是什么样子(但不要对输入数据太挑剔--这个脚本只是为了说明问题......)。

//类型0--线性归一化,1--非线性

统计条,我没有任何抱怨

好吧,这很有效--而且很好。我只想说清楚,归一化程序不等于平滑分布,你需要一个更复杂的方法。但是,另一方面,我们有一个在最后+/-1范围内的输入值,而且是以架子的形式--一个美味的食物。另外,当你对输入进行粉饰时,你会得到一种审美的愉悦感。

 
Neutron писал(а)>>

StatBars,我不是在抱怨!

好吧,它的工作,这很好。我只想澄清,归一化程序不等于分配的均衡化,需要一个相对更复杂的方法。但是,另一方面,我们有一个在最后+/-1范围内的输入值,而且是以架子的形式--一个美味的食物。另外,当你对输入进行粉饰时,你会得到一种审美的愉悦感。

)))

顺便说一下,在一篇文章中描述了一种方法,我不记得我到底在哪里读到的......一般来说,使用面积分布函数,第二张图片正是这种方法的工作。

总之,这里有一个简单的归一化和频率对齐的文件,不是最好的例子,但还是有的。

你是否对投入进行了美白?我只是有几个问题...

附加的文件:
 

我做到了。

但漂白和美白之间是有区别的。你可以愚蠢地将两个雨刷送入两个NS输入,并旨在美白它们......这是一个案例(临床),你可以把酒吧的开价 放在一打--这是另一个案例,没有什么可以美白的--所有东西都是白色的。

 
我读了这个主题,它比其他的内容更丰富,但今天是善行日,所以我在T-O-P-I-C-K-E 提出来......:-О)
 
Neutron >> :

列昂尼德,重新训练NS没有问题--它是来自于不理解这个有着美丽名字和三个钉子的盒子里面的本质内容。不要采取比最低限度更短的训练样本,你就不必凭直觉来决定什么是更好的,什么是更差的!"。

关于 "正确 "的输入,我100%同意你的观点,这是成功的关键--一切可以为NS-ku解决的问题--必须独立解决。它需要留下解决方案没有的东西,或者是没有理由的困难。例如,给Zig-Zag输入一点意义都没有。在这种情况下,NS的行为是显而易见的 - 它将学习表面上的东西 - 熟悉ZZ的武器,并使用这种输入数据是零。

没有错误的输入。有一个错误的任务。

 

关于正常化的问题。不是每一种类型的规范化都能在手头的任务中应用。

 
registred писал(а)>>

没有错误的输入。有一个方向错误的任务。

为什么不呢?有的。除了客观的(正确的)问题之外,还有解决这个问题的数据......。

而关于正常化--有什么解释吗?

 
在规范化过程中出现了一个困难:虽然在描述神经网络时所有的神经元都是一样的,而且可以对一个神经元进行一次描述,但在去除分离的连接后,神经元通常会有不同的结构。
 
StatBars >> :

为什么不呢?有的。除了客观的(正确的)问题之外,还有解决这个问题的数据......。

而关于正常化--有什么解释吗?

嗯,有线性归一化,也有非线性归一化。非线性对新数据的方差很敏感。直线法很简单,需要的计算步骤也少,但对它来说,非对称性,可以说会影响训练的时间。 有了它,作为训练的结果,在某些条件下,变异可以成为它想要的任何东西。但在训练本身中,一个没有被归一化为零均值和单位方差的系列,最终会导致网络的学习时间比做了这种归一化的情况下更长。关于第一个问题,我的个人意见是这样的。我可以采取MA,我可以采取系列的增量。对我来说不会有任何区别。其本质将是,如果在训练网络后,训练的结果取决于我所选择的东西(MA或简单的系列增量),那么它将表明只有错误的设置任务,网络只是在学习我试图教它的东西。也就是说,只需执行我教给它的动作。 但要找到规律性的东西,即归纳出规律性的东西,网络就不会或不可能正确地做到这一点。重点是减少神经网络输出端需要的数据类型的泛化误差。输入的数据可以是一个时间序列的增量,但不一定是以MA或其他形式的平滑版本。他们都写道,这个系列必须被抹平。但我认为这并不重要,因为数据的客观规律性被保存下来了,主要的是在你的系列中选择必要的增量。

 
registred писал(а)>>

嗯,有线性归一化,也有非线性归一化。非线性对新数据的方差很敏感。线性很简单,需要较少的计算工作,但其非对称性,可以说会影响学习时间。有了它,作为训练的结果,在某些条件下,变异可以成为它想要的任何东西。但在训练本身中,一个没有被归一化为零均值和单位方差的系列,最终会导致网络的学习时间比进行这种归一化的时间更长。关于第一个问题,我的个人意见是这样的。我可以采取MA,我可以采取系列的增量。对我来说不会有任何区别。其本质将是,如果在训练网之后,训练的结果取决于我所选择的东西(MA或简单的系列增量),那么它将只表明任务设置不正确,网只是在学习我试图教它的东西。也就是说,只需执行我教给它的动作。但要找到规律性的东西,即归纳出规律性的东西,网络就不会或不可能正确地做到这一点。重点是减少神经网络输出端需要的数据类型的泛化误差。输入的数据可以是一个时间序列的增量,但不一定是以MA或其他形式的平滑版本。他们都写道,这个系列必须被抹平。但我认为这并不重要,因为数据中的客观规律性被保留了下来,主要的是在你的系列中选择合适的增量。

我认为从你的帖子中可以看出,规范化更多地取决于数据,而不是手头的任务。

关于第二部分:你是否考虑MA增量和系列增量?

在一般意义上,你的意思是受过训练的网络必须对输入数据不敏感? 或者你只是改变输入数据,网络必须继续预测?

该网站使用cookies。了解有关我们Cookies政策的更多信息。