神经网络 - 页 2

 
xweblanser >> :

非常感谢你,对不起,没有很多评论,但我会努力想办法的....。

在这里www.nnea.net/downloads,有一个很好的pdf集,其中有关于用NS预测金融市场的研究。你需要注册。也可以看看研究部分。

 
marketeer >> :

交易员并不真的需要了解NS的内部运作。对他来说,它是一个有输入和输出的黑盒子。在公共领域有许多现成的网络,包括在这个网站上--只要在搜索框中输入 "神经网络"。例如,最新的出版物之一 -基于自学神经网络 的预测器。使用NS的主要问题是选择输入和训练什么数据,如何准备这些数据,网络的结构和大小是什么,等等。例如,我们采取已经提到的网络,尝试以Yezhov和Shumsky的方式来训练它(见神经计算及其在经济和商业中的应用,我推荐)... 而我们最终的结果是翻盘。这可能有很多原因。这就是交易员工作的开始:凭直觉判断自那时以来可能发生了什么变化(或者作者没有告诉你什么;-)),以及在设置和输入数据中要改变什么。

嗯,我是一个交易员,但主要是一个程序员......我想为自己写一个神经网络,同时向自己证明,我可以....。

 
njel >> :

www.nnea.net/downloads,这里有很多关于利用NS预测金融市场的研究的pdf资料。你需要注册。也可以看研究部分。

>>谢谢你。

 
xweblanser >> :

1.据我所知,网络的每个神经元都是同一个函数......但我不明白,当同样的数据进来时,同一个函数怎么会产生不同的值呢?

这些输入将被乘以不同的权重。因此,函数值将是不同的。在彻底研究了神经网络并使用不同的学习算法,从梯度下降到遗传学,我得出结论,神经网络的数学装置并不完美。一个神经网络被设计用来近似一个非线性函数。根据科尔莫戈罗夫定理,网络能够实现任何连续函数。在实践中,网络的并行性导致了大量的局部最小值和被建模的函数的实现。以下图所示的网络为例。该网络有一个输入,一个输出,以及一个有两个神经元的隐藏层。每个隐藏神经元将输入x乘以其权重(w1或w2),将结果通过激活函数(如tanh),得到的值在网络输出端相加。为简单起见,假设偏置输入为零。输出神经元的权重是相同的,等于1。


现在让我们创建一个函数近似问题。假设我们的函数是t=cos(x)(t指目标)。该网络将通过公式计算其价值

y = tanh(w1*x) + tanh(w2*x)

训练(或辅导)网络是为了找到权重w1和w2,在这两个权重下,网络的输出y最接近我们的函数t的值。这是通过最小化误差的平方之和来实现的

E(w1,w2) = sum((t[k]-y[k])^2, k=0...p-1)

其中对不同的训练数据进行求和:x[k],t[k]。让我们看看当测量中没有噪声时,我们的最小化目标函数E(w1,w2)的表面是怎样的 t[k] = cos(x[k])。


这张图显示,有一个无限的解决方案(w1,w2),使我们的目标函数E最小化(注意平坦的谷地)。这并不难理解:该网络在w1和w2方面是对称的。对于w1和w2的初始值的不同选择,网络的训练结果会有所不同。由于这些初始值总是随机选择的,在相同的训练数据x[k],t[k]上连续训练网络将导致优化权重w1和w2的不同值。这里基本上没有全球最小值。或者换一种说法,无限多的局部最小值也是全局最小值。

现在让我们把问题复杂化,在我们的序列中加入噪音:t[k]=cos(x[k])+rnd。与完美余弦相比,这个噪声系列在统计学上与价格系列更为相似。


现在我们的最小化函数E(w1,w2)的表面看起来像这样。


注意到山峰和山谷上都有许多山峰。让我们稍微靠近其中一个山谷。


这里我们可以更清楚地看到局部最小值的集合。现在想象一下,通过梯度下降对E(w1,w2)进行优化。根据w1和w2的初始值,这种下降将导致不同的最小值。此外,这个局部最低点既可以是在顶部,也可以是在山谷。遗传优化在这里只会帮助从顶部下降到其中一个山谷,并在其中一个局部最小值处卡住。如果除了w1和w2之外,输出神经元的权重也被优化,情况就会变得更加复杂,在之前的考虑中,这些权重都是等于1。在这种情况下,我们有一个4维空间,有大量的局部最小点,其坐标为(w1,w2,w3,w4)。

通过所有这些对神经网络行为的简化描述,我想证明网络的平行性(或其输出相对于同一层神经元的权重的对称性)导致其训练(这些权重的优化)的困难,因为存在无限的局部极值,特别是对于像价格序列这样的混乱序列。

我附上进行上述计算的MathCAD文件。

附加的文件:
nnrsimplea2.zip  699 kb
 
gpwr писал(а)>> 通过这种对神经网络行为的简化描述,我想证明网络的平行性(或其输出相对于同一层神经元的权重的对称性)导致其训练(这些权重的优化)的困难,因为存在无限多的局部极值,特别是对于像价格系列这样的混乱系列。

有一个问题--这对利润有什么影响?

 
LeoV >> :

有一个问题--这对盈利能力有什么影响?

你有一个能产生稳定利润的网络吗?

 
LeoV >> :

有一个问题--这对利润有什么影响?

盈利能力绝对会受到影响。没有人能够保证找到正确的、足够深的局部最小值,足以实现基于神经网络的盈利性TS。

 
gpwr >> :

你用的是哪种MathCad,你的计算结果在Mathcad 13中打不开。

 

最小化/最大化目标函数E(w1,w2)的意义在于找到一个全局极值。如果有一百万个这样的全球极值,对我们来说,NN落在哪一个极值又有什么区别呢?

如果它被卡在某个局部的最小/最大点上,情况会更糟糕。但这不再是NN的问题了。这是一个优化算法的问题。


LeoV >> :

>> 有一个问题--它是如何影响利润的?

gpwr所描述的,它并没有。

 
Urain >> :

你用哪种MathCad,我无法在Mathcad 13中打开你的计算结果。

>> Mathcad 14.>> 我附上11版的相同文件。

附加的文件:
nnosimplem2.zip  14 kb
原因: