神经网络 - 页 2 123456789...14 新评论 Andrey Opeyda 2009.08.02 12:03 #11 xweblanser >> : 非常感谢你,对不起,没有很多评论,但我会努力想办法的....。 在这里www.nnea.net/downloads,有一个很好的pdf集,其中有关于用NS预测金融市场的研究。你需要注册。也可以看看研究部分。 [删除] 2009.08.02 12:59 #12 marketeer >> : 交易员并不真的需要了解NS的内部运作。对他来说,它是一个有输入和输出的黑盒子。在公共领域有许多现成的网络,包括在这个网站上--只要在搜索框中输入 "神经网络"。例如,最新的出版物之一 -基于自学神经网络 的预测器。使用NS的主要问题是选择输入和训练什么数据,如何准备这些数据,网络的结构和大小是什么,等等。例如,我们采取已经提到的网络,尝试以Yezhov和Shumsky的方式来训练它(见神经计算及其在经济和商业中的应用,我推荐)... 而我们最终的结果是翻盘。这可能有很多原因。这就是交易员工作的开始:凭直觉判断自那时以来可能发生了什么变化(或者作者没有告诉你什么;-)),以及在设置和输入数据中要改变什么。 嗯,我是一个交易员,但主要是一个程序员......我想为自己写一个神经网络,同时向自己证明,我可以....。 [删除] 2009.08.02 13:00 #13 njel >> : www.nnea.net/downloads,这里有很多关于利用NS预测金融市场的研究的pdf资料。你需要注册。也可以看研究部分。 >>谢谢你。 Vladimir 2009.08.02 21:48 #14 xweblanser >> : 1.据我所知,网络的每个神经元都是同一个函数......但我不明白,当同样的数据进来时,同一个函数怎么会产生不同的值呢? 这些输入将被乘以不同的权重。因此,函数值将是不同的。在彻底研究了神经网络并使用不同的学习算法,从梯度下降到遗传学,我得出结论,神经网络的数学装置并不完美。一个神经网络被设计用来近似一个非线性函数。根据科尔莫戈罗夫定理,网络能够实现任何连续函数。在实践中,网络的并行性导致了大量的局部最小值和被建模的函数的实现。以下图所示的网络为例。该网络有一个输入,一个输出,以及一个有两个神经元的隐藏层。每个隐藏神经元将输入x乘以其权重(w1或w2),将结果通过激活函数(如tanh),得到的值在网络输出端相加。为简单起见,假设偏置输入为零。输出神经元的权重是相同的,等于1。 现在让我们创建一个函数近似问题。假设我们的函数是t=cos(x)(t指目标)。该网络将通过公式计算其价值 y = tanh(w1*x) + tanh(w2*x) 训练(或辅导)网络是为了找到权重w1和w2,在这两个权重下,网络的输出y最接近我们的函数t的值。这是通过最小化误差的平方之和来实现的 E(w1,w2) = sum((t[k]-y[k])^2, k=0...p-1) 其中对不同的训练数据进行求和:x[k],t[k]。让我们看看当测量中没有噪声时,我们的最小化目标函数E(w1,w2)的表面是怎样的 t[k] = cos(x[k])。 这张图显示,有一个无限的解决方案(w1,w2),使我们的目标函数E最小化(注意平坦的谷地)。这并不难理解:该网络在w1和w2方面是对称的。对于w1和w2的初始值的不同选择,网络的训练结果会有所不同。由于这些初始值总是随机选择的,在相同的训练数据x[k],t[k]上连续训练网络将导致优化权重w1和w2的不同值。这里基本上没有全球最小值。或者换一种说法,无限多的局部最小值也是全局最小值。 现在让我们把问题复杂化,在我们的序列中加入噪音:t[k]=cos(x[k])+rnd。与完美余弦相比,这个噪声系列在统计学上与价格系列更为相似。 现在我们的最小化函数E(w1,w2)的表面看起来像这样。 注意到山峰和山谷上都有许多山峰。让我们稍微靠近其中一个山谷。 这里我们可以更清楚地看到局部最小值的集合。现在想象一下,通过梯度下降对E(w1,w2)进行优化。根据w1和w2的初始值,这种下降将导致不同的最小值。此外,这个局部最低点既可以是在顶部,也可以是在山谷。遗传优化在这里只会帮助从顶部下降到其中一个山谷,并在其中一个局部最小值处卡住。如果除了w1和w2之外,输出神经元的权重也被优化,情况就会变得更加复杂,在之前的考虑中,这些权重都是等于1。在这种情况下,我们有一个4维空间,有大量的局部最小点,其坐标为(w1,w2,w3,w4)。 通过所有这些对神经网络行为的简化描述,我想证明网络的平行性(或其输出相对于同一层神经元的权重的对称性)导致其训练(这些权重的优化)的困难,因为存在无限的局部极值,特别是对于像价格序列这样的混乱序列。 我附上进行上述计算的MathCAD文件。 附加的文件: nnrsimplea2.zip 699 kb Леонид 2009.08.02 21:54 #15 gpwr писал(а)>> 通过这种对神经网络行为的简化描述,我想证明网络的平行性(或其输出相对于同一层神经元的权重的对称性)导致其训练(这些权重的优化)的困难,因为存在无限多的局部极值,特别是对于像价格系列这样的混乱系列。 有一个问题--这对利润有什么影响? Vladimir 2009.08.02 22:18 #16 LeoV >> : 有一个问题--这对盈利能力有什么影响? 你有一个能产生稳定利润的网络吗? [删除] 2009.08.02 23:06 #17 LeoV >> : 有一个问题--这对利润有什么影响? 盈利能力绝对会受到影响。没有人能够保证找到正确的、足够深的局部最小值,足以实现基于神经网络的盈利性TS。 Mykola Demko 2009.08.02 23:18 #18 gpwr >> : 你用的是哪种MathCad,你的计算结果在Mathcad 13中打不开。 Andrey Dik 2009.08.02 23:28 #19 最小化/最大化目标函数E(w1,w2)的意义在于找到一个全局极值。如果有一百万个这样的全球极值,对我们来说,NN落在哪一个极值又有什么区别呢? 如果它被卡在某个局部的最小/最大点上,情况会更糟糕。但这不再是NN的问题了。这是一个优化算法的问题。 LeoV >> : >> 有一个问题--它是如何影响利润的? gpwr所描述的,它并没有。 Vladimir 2009.08.02 23:41 #20 Urain >> : 你用哪种MathCad,我无法在Mathcad 13中打开你的计算结果。 >> Mathcad 14.>> 我附上11版的相同文件。 附加的文件: nnosimplem2.zip 14 kb 123456789...14 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
非常感谢你,对不起,没有很多评论,但我会努力想办法的....。
在这里www.nnea.net/downloads,有一个很好的pdf集,其中有关于用NS预测金融市场的研究。你需要注册。也可以看看研究部分。
交易员并不真的需要了解NS的内部运作。对他来说,它是一个有输入和输出的黑盒子。在公共领域有许多现成的网络,包括在这个网站上--只要在搜索框中输入 "神经网络"。例如,最新的出版物之一 -基于自学神经网络 的预测器。使用NS的主要问题是选择输入和训练什么数据,如何准备这些数据,网络的结构和大小是什么,等等。例如,我们采取已经提到的网络,尝试以Yezhov和Shumsky的方式来训练它(见神经计算及其在经济和商业中的应用,我推荐)... 而我们最终的结果是翻盘。这可能有很多原因。这就是交易员工作的开始:凭直觉判断自那时以来可能发生了什么变化(或者作者没有告诉你什么;-)),以及在设置和输入数据中要改变什么。
嗯,我是一个交易员,但主要是一个程序员......我想为自己写一个神经网络,同时向自己证明,我可以....。
www.nnea.net/downloads,这里有很多关于利用NS预测金融市场的研究的pdf资料。你需要注册。也可以看研究部分。
>>谢谢你。
1.据我所知,网络的每个神经元都是同一个函数......但我不明白,当同样的数据进来时,同一个函数怎么会产生不同的值呢?
这些输入将被乘以不同的权重。因此,函数值将是不同的。在彻底研究了神经网络并使用不同的学习算法,从梯度下降到遗传学,我得出结论,神经网络的数学装置并不完美。一个神经网络被设计用来近似一个非线性函数。根据科尔莫戈罗夫定理,网络能够实现任何连续函数。在实践中,网络的并行性导致了大量的局部最小值和被建模的函数的实现。以下图所示的网络为例。该网络有一个输入,一个输出,以及一个有两个神经元的隐藏层。每个隐藏神经元将输入x乘以其权重(w1或w2),将结果通过激活函数(如tanh),得到的值在网络输出端相加。为简单起见,假设偏置输入为零。输出神经元的权重是相同的,等于1。
现在让我们创建一个函数近似问题。假设我们的函数是t=cos(x)(t指目标)。该网络将通过公式计算其价值
y = tanh(w1*x) + tanh(w2*x)
训练(或辅导)网络是为了找到权重w1和w2,在这两个权重下,网络的输出y最接近我们的函数t的值。这是通过最小化误差的平方之和来实现的
E(w1,w2) = sum((t[k]-y[k])^2, k=0...p-1)
其中对不同的训练数据进行求和:x[k],t[k]。让我们看看当测量中没有噪声时,我们的最小化目标函数E(w1,w2)的表面是怎样的 t[k] = cos(x[k])。
这张图显示,有一个无限的解决方案(w1,w2),使我们的目标函数E最小化(注意平坦的谷地)。这并不难理解:该网络在w1和w2方面是对称的。对于w1和w2的初始值的不同选择,网络的训练结果会有所不同。由于这些初始值总是随机选择的,在相同的训练数据x[k],t[k]上连续训练网络将导致优化权重w1和w2的不同值。这里基本上没有全球最小值。或者换一种说法,无限多的局部最小值也是全局最小值。
现在让我们把问题复杂化,在我们的序列中加入噪音:t[k]=cos(x[k])+rnd。与完美余弦相比,这个噪声系列在统计学上与价格系列更为相似。
现在我们的最小化函数E(w1,w2)的表面看起来像这样。
注意到山峰和山谷上都有许多山峰。让我们稍微靠近其中一个山谷。
这里我们可以更清楚地看到局部最小值的集合。现在想象一下,通过梯度下降对E(w1,w2)进行优化。根据w1和w2的初始值,这种下降将导致不同的最小值。此外,这个局部最低点既可以是在顶部,也可以是在山谷。遗传优化在这里只会帮助从顶部下降到其中一个山谷,并在其中一个局部最小值处卡住。如果除了w1和w2之外,输出神经元的权重也被优化,情况就会变得更加复杂,在之前的考虑中,这些权重都是等于1。在这种情况下,我们有一个4维空间,有大量的局部最小点,其坐标为(w1,w2,w3,w4)。
通过所有这些对神经网络行为的简化描述,我想证明网络的平行性(或其输出相对于同一层神经元的权重的对称性)导致其训练(这些权重的优化)的困难,因为存在无限的局部极值,特别是对于像价格序列这样的混乱序列。
我附上进行上述计算的MathCAD文件。
有一个问题--这对利润有什么影响?
有一个问题--这对盈利能力有什么影响?
你有一个能产生稳定利润的网络吗?
有一个问题--这对利润有什么影响?
盈利能力绝对会受到影响。没有人能够保证找到正确的、足够深的局部最小值,足以实现基于神经网络的盈利性TS。
你用的是哪种MathCad,你的计算结果在Mathcad 13中打不开。
最小化/最大化目标函数E(w1,w2)的意义在于找到一个全局极值。如果有一百万个这样的全球极值,对我们来说,NN落在哪一个极值又有什么区别呢?
如果它被卡在某个局部的最小/最大点上,情况会更糟糕。但这不再是NN的问题了。这是一个优化算法的问题。
>> 有一个问题--它是如何影响利润的?
gpwr所描述的,它并没有。
你用哪种MathCad,我无法在Mathcad 13中打开你的计算结果。
>> Mathcad 14.>> 我附上11版的相同文件。