混合神经网络。 - 页 16 1...910111213141516171819202122 新评论 gumgum 2009.10.12 10:10 #151 我想自己知道! RIP 2009.10.12 12:47 #152 gumgum >> : 我想亲自了解一下! Kgm ...我想我知道 :)当我第一次实施RPRop时,我遇到了一种情况,即误差开始增长,dEdW值(梯度)上升到+Inf。 限制学习次数,比如10-15次,或者在代码中引入梯度顶值的检查,我有这样的代码。 如果(Math::Abs(this->dEdW[j][k][i])< 10e-25) { this->dEdW[j][k][i] = 0。 } 这意味着该算法遇到了一个局部最小值,或者我们正在处理网络再训练。 gumgum 2009.10.12 14:09 #153 所以我明白了,从训练集中输入所有的例子,为每个dedw计算,然后用dedw除以训练例子的数量,这就是批处理模式的工作方式吗? Denis Timoshin 2009.10.12 14:12 #154 gumgum >> : 我的理解是,我们通过计算每一个dedw来送入训练集的所有例子,然后用dedw除以训练例子的数量。 批量模式是这样工作的吗? 这种算法的缺点是,它是离散的 RIP 2009.10.12 14:22 #155 gumgum >> : 所以,我的理解是,从训练集中输入所有的例子,计算每个dedw的总和,然后用dedw除以训练例子的数量? 批量模式是这样工作的吗? 是的,但不要混淆单个神经元的局部梯度和dEdW--你有多少个局部梯度就有多少个神经元,在dEdW中你有多少个与函数阈值有关的突触连接。 RIP 2009.10.12 14:26 #156 dentraf >> : >> 这种算法的缺点是它是离散的。 嗯...你说的离散是什么意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度更快。 Denis Timoshin 2009.10.12 15:22 #157 rip >> : 嗯...什么是离散性的意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度工作得更快。 我没有说什么速度问题)。 Petro Mohyla 2009.10.12 15:28 #158 一个神经网络--我明白了。你如何准备它?你在什么样的数据上运行它?间歇期? gumgum 2009.10.12 15:31 #159 谢谢大家! gumgum 2009.10.12 16:30 #160 rip писал(а)>> 嗯...什么是离散性的意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度工作得更快。 关于准牛顿和LMA方法的更多细节。 1...910111213141516171819202122 新评论 原因: 取消 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
我想亲自了解一下!
Kgm ...我想我知道 :)当我第一次实施RPRop时,我遇到了一种情况,即误差开始增长,dEdW值(梯度)上升到+Inf。
限制学习次数,比如10-15次,或者在代码中引入梯度顶值的检查,我有这样的代码。
如果(Math::Abs(this->dEdW[j][k][i])< 10e-25)
{
this->dEdW[j][k][i] = 0。
}
这意味着该算法遇到了一个局部最小值,或者我们正在处理网络再训练。
我的理解是,我们通过计算每一个dedw来送入训练集的所有例子,然后用dedw除以训练例子的数量。 批量模式是这样工作的吗?
这种算法的缺点是,它是离散的
所以,我的理解是,从训练集中输入所有的例子,计算每个dedw的总和,然后用dedw除以训练例子的数量? 批量模式是这样工作的吗?
是的,但不要混淆单个神经元的局部梯度和dEdW--你有多少个局部梯度就有多少个神经元,在dEdW中你有多少个与函数阈值有关的突触连接。
>> 这种算法的缺点是它是离散的。
嗯...你说的离散是什么意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度更快。
嗯...什么是离散性的意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度工作得更快。
我没有说什么速度问题)。
嗯...什么是离散性的意思?这种算法在一些问题上并不比任何梯度方法差。它不如准牛顿方法或说LMA。但它比简单的梯度工作得更快。
关于准牛顿和LMA方法的更多细节。