混合神经网络。 - 页 20 1...13141516171819202122 新评论 [删除] 2009.10.26 17:47 #191 rip >> : MSE 奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。 RIP 2009.10.26 19:19 #192 registred >> : 奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。 好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。 [删除] 2009.10.26 19:31 #193 rip >> : 好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。 我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是错误的,因为它是一个通用的近似器,我们必须以某种方式确定这种近似的程度,近似的质量,考虑到市场的收益率,使序列达到一个更固定的形式,可以说。如果你在这方面有一些想法,我们可以讨论。 RIP 2009.10.26 20:40 #194 registred >> : 我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是一个错误,因为它是一个通用的近似器,有必要以某种方式确定这种近似的程度,近似的质量,考虑到市场上的收益率,使系列达到一个更固定的形式,可以说。如果你对它有一些想法,我们可以讨论。 如果一个数字可以被带到一个固定的形式,我想就不会有这样的外汇了 :) [删除] 2009.10.26 22:36 #195 简而言之,人们已经有了成功应用神经网络的 例子,我们需要在这方面的工作更短。 RIP 2009.10.26 22:48 #196 registred >> : 简而言之,人们已经有了成功应用神经网络的例子,我们需要在这方面的工作更短。 为什么有,有的。如果我没记错的话,在2007年,Better以一个概率性的NS获胜。 该网络的任务是预测课程的运动。 [删除] 2009.10.26 22:58 #197 rip >> : 为什么过去有,现在也有。如果我没有记错的话,在2007年的时候,Better只是用概率性的NS赢得了比赛。 该网络的任务是预测课程的运动。 是的,我读到了。概率网络有一个大问题,它对数据中的噪音很敏感。简单地说,它与BackProp和其他迭代方法不同,没有什么经验主义。 Evgeniy Logunov 2009.10.26 23:34 #198 registred писал(а)>> 概率网络有一个大问题,它对数据中的噪音很敏感。 你能详细说明一下吗?我想我在文献中看到过不同的观点。 Artem Titarenko 2009.10.27 09:15 #199 相对于类似的方法(如k-NN),VNS对数据中的噪声不太敏感,但相对于MLP和类似的方法,情况可能会发生逆转... [删除] 2009.10.27 09:22 #200 lea >> : 你能详细说明一下吗?我想我在文献中看到过不同的观点。 那么那里要调整的参数是什么呢?西格玛?你将如何调整它?你如何找到最佳解决方案?这些都是我不太清楚的问题。另一件事是,对于MLP来说,只有错误的类型是一个基本参数,尽管如此,我还是坚持这样做。当然,MLP会卡在局部最小值中,有一些方法可以对抗它。在任何情况下,MLP的最佳解决方案可能不是通过在许多任务的全局最小值中寻找。如果你已经有了与PNN合作的东西,那是非常好的事情。 1...13141516171819202122 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
MSE
奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。
奇怪的是,当我开始用MSE将这个同样的工具应用于外汇时,它却不起作用。你必须应用一个完全不同的错误,我想。
好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。
好吧,哪一个?在跟老师学习的情况下,我认为MSE已经足够了。
我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是错误的,因为它是一个通用的近似器,我们必须以某种方式确定这种近似的程度,近似的质量,考虑到市场的收益率,使序列达到一个更固定的形式,可以说。如果你在这方面有一些想法,我们可以讨论。
我正在考虑这个问题。但我可以肯定的是,MSE不是什么好东西。至少对我来说是这样的,原因如上所述。我认为,对于神经网络来说,老师(规则)是一个错误,因为它是一个通用的近似器,有必要以某种方式确定这种近似的程度,近似的质量,考虑到市场上的收益率,使系列达到一个更固定的形式,可以说。如果你对它有一些想法,我们可以讨论。
如果一个数字可以被带到一个固定的形式,我想就不会有这样的外汇了 :)
简而言之,人们已经有了成功应用神经网络的 例子,我们需要在这方面的工作更短。
简而言之,人们已经有了成功应用神经网络的例子,我们需要在这方面的工作更短。
为什么有,有的。如果我没记错的话,在2007年,Better以一个概率性的NS获胜。
该网络的任务是预测课程的运动。
为什么过去有,现在也有。如果我没有记错的话,在2007年的时候,Better只是用概率性的NS赢得了比赛。
该网络的任务是预测课程的运动。
是的,我读到了。概率网络有一个大问题,它对数据中的噪音很敏感。简单地说,它与BackProp和其他迭代方法不同,没有什么经验主义。
概率网络有一个大问题,它对数据中的噪音很敏感。
你能详细说明一下吗?我想我在文献中看到过不同的观点。
相对于类似的方法(如k-NN),VNS对数据中的噪声不太敏感,但相对于MLP和类似的方法,情况可能会发生逆转...
你能详细说明一下吗?我想我在文献中看到过不同的观点。
那么那里要调整的参数是什么呢?西格玛?你将如何调整它?你如何找到最佳解决方案?这些都是我不太清楚的问题。另一件事是,对于MLP来说,只有错误的类型是一个基本参数,尽管如此,我还是坚持这样做。当然,MLP会卡在局部最小值中,有一些方法可以对抗它。在任何情况下,MLP的最佳解决方案可能不是通过在许多任务的全局最小值中寻找。如果你已经有了与PNN合作的东西,那是非常好的事情。