混合神经网络。 - 页 18

 
gumgum >> :

谢谢你。

问题仍然是...真相在哪里?

左上角(RProp)。当DE/DW(t-1)*DE/DW<0时,为什么DE/DW=0?

请问这一页是哪篇文章的内容?给出其完整的标题。

 
rip >> :

请问这一页是取自哪篇文章?给出它的全名。

这些是来自不同的文章,我在上面的作者版本中给出了RPROP的链接。

 
rip писал(а)>>

请问这一页是哪篇文章的内容?给出其完整的标题。

附加的文件:
anastasiadis.zip  1211 kb
 

Here.net 10-22-11-1

Rprop:(476 ep.)

反向+动量(n=0.01, a=0.9)(136 ep.)。

 
gumgum >> :

Here.net 10-22-11-1

Rprop:(476 ep.)

逆+动量(n=0.01, a=0.9)(136 ep.)。

RProp的效率很低 :)

什么在里面,什么在外面?

 
rip писал(а)>>

RProp的效率很低 :)

什么在里面,什么在外面?

没有。

10开->1开

 

观看神经网络的集体实验很有趣。我必须告诉你多少次:神经网络 与RSI和随机指数以及其他许多工具是一样的,唯一的区别是它们是非常复杂的。你不会用神经网络解决你的问题...这只是在浪费时间...所有那些没有为自己做出结论的人,让他们忽略这句话。

 
建议学习算法(非欧元)。
[删除]  
Debugger >> :

观看神经网络的集体实验很有趣。我必须告诉你多少次:神经网络 与RSI和随机指数以及其他许多工具是一样的,唯一的区别是它们是非常复杂的。你不会用神经网络解决你的问题...这只是在浪费时间...所有那些还没有为自己做出结论的人,让他们忽略这句话。

这是 大学一年级的课程。实际上,我在高中时也经历过。只有老师是重要的,那基本上是网络输出的错误类型。

 
gumgum >> :
提示学习算法(不是evr.)

所有的梯度 - LMA,准牛顿式。遗传...

启发式方法--所有RProp的变种,"退火法 "等。