混合神经网络。 - 页 20

[删除]  
rip >> :

MSE

奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。

 
registred >> :

奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。



好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。

[删除]  
rip >> :

好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。


我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是错误的,因为它是一个通用的近似器,我们必须以某种方式确定这种近似的程度,近似的质量,考虑到市场的收益率,使序列达到一个更固定的形式,可以说。如果你在这方面有一些想法,我们可以讨论。

 
registred >> :


我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是一个错误,因为它是一个通用的近似器,有必要以某种方式确定这种近似的程度,近似的质量,考虑到市场上的收益率,使系列达到一个更固定的形式,可以说。如果你对它有一些想法,我们可以讨论。


如果一个数字可以被带到一个固定的形式,我想就不会有这样的外汇了 :)

[删除]  

简而言之,人们已经有了成功应用神经网络的 例子,我们需要在这方面的工作更短。

 
registred >> :

简而言之,人们已经有了成功应用神经网络的例子,我们需要在这方面的工作更短。

为什么有,有的。如果我没记错的话,在2007年,Better以一个概率性的NS获胜。

该网络的任务是预测课程的运动。

[删除]  
rip >> :

为什么过去有,现在也有。如果我没有记错的话,在2007年的时候,Better只是用概率性的NS赢得了比赛。

该网络的任务是预测课程的运动。



是的,我读到了。概率网络有一个大问题,它对数据中的噪音很敏感。简单地说,它与BackProp和其他迭代方法不同,没有什么经验主义。

 
registred писал(а)>>

概率网络有一个大问题,它对数据中的噪音很敏感。

你能详细说明一下吗?我想我在文献中看到过不同的观点。

 

相对于类似的方法(如k-NN),VNS对数据中的噪声不太敏感,但相对于MLP和类似的方法,情况可能会发生逆转...

[删除]  
lea >> :

你能详细说明一下吗?我想我在文献中看到过不同的观点。


那么那里要调整的参数是什么呢?西格玛?你将如何调整它?你如何找到最佳解决方案?这些都是我不太清楚的问题。另一件事是,对于MLP来说,只有错误的类型是一个基本参数,尽管如此,我还是坚持这样做。当然,MLP会卡在局部最小值中,有一些方法可以对抗它。在任何情况下,MLP的最佳解决方案可能不是通过在许多任务的全局最小值中寻找。如果你已经有了与PNN合作的东西,那是非常好的事情。