混合神经网络。 - 页 22 1...1516171819202122 新评论 RIP 2009.11.02 16:33 #211 gumgum >> : c-means算法谁有详细说明? WiKi, k-means, c-means, and google ... 你想用它来做什么? gumgum 2009.11.02 18:37 #212 rip >> : WiKi, k-means, c-means, and google ... 你想用它来做什么? >> 混合动力来紧缩。 顺便问一下,你试过系数梯度吗?我有师父的零点了! gumgum 2009.11.04 16:43 #213 也许有人已经写了,也许没有... 在尝试了几种算法后,我遇到了一个问题>>在[N/2]*in(训练例子的数量)达到足够的误差水平。我已经用(MathRand()-MathRand())/32767初始化了权重。 通过DoubleTostr和StrToDouble初始化权重,导致达到目标的+结果! double ranD(int rsign) { string ran="0."; for(int z=1; z<=25; z++) { ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0); } double randou=StrToDouble( ran); if( rsign==1) { double dip=(MathRand()-MathRand())/32767.0; if( dip<0){ randou=(-1)* randou;} if( dip==0){ randou=0;} } return( randou); } gumgum 2009.11.08 19:50 #214 这个话题已经被蜘蛛网淹没了...... 我注意到这个东西...假设我们有一个 x-n1-n2-y神经网络。让我们在批处理模式下用ORO毕业班训练它。<e>有一点不同。 从训练集S做一个新的集合MG=S,并将其划分为K个(有限的)子集M,使得交集M(n)&M(n+1)!=0 忽略MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(emin),如果M(emin)<e停止,则纠正错误,如果不是,则首先需要M(emin)/M(emin)-1。 这是最好的学习方式。 RIP 2009.11.09 12:43 #215 gumgum >> : 这个话题已经被蜘蛛网淹没了...... 我注意到这样一件事...假设我们有一个神经网络x-n1-n2-y。让我们在批处理模式下用ORO grad训练它。<e>有一点不同。 从训练集S中,制作一个新的集合MG=S,并划分为K(有限)个子集M,这些子集与M(n)&M(n+1)相交!=0 我们跳过MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(Emin),如果M(Emin)<e停止,则纠正错误,如果不是,则我们仍然需要M(Emin)/M(Emin)-1。 嗯,这是一种更好的训练方式。 测试子集显示了什么?这个错误是如何表现的? 所描述的方法有时在文献中被认为是一种改良的批处理模式。 gumgum 2009.11.11 21:05 #216 同志们。如果有人实现了随机学习算法。分享你的印象、经验等(我不需要源代码)。 P.S. 预先感谢。 1...1516171819202122 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
c-means算法谁有详细说明?
WiKi, k-means, c-means, and google ...
你想用它来做什么?
WiKi, k-means, c-means, and google ...
你想用它来做什么?
>> 混合动力来紧缩。
顺便问一下,你试过系数梯度吗?我有师父的零点了!
也许有人已经写了,也许没有...
在尝试了几种算法后,我遇到了一个问题>>在[N/2]*in(训练例子的数量)达到足够的误差水平。我已经用(MathRand()-MathRand())/32767初始化了权重。
通过DoubleTostr和StrToDouble初始化权重,导致达到目标的+结果!
这个话题已经被蜘蛛网淹没了......
我注意到这个东西...假设我们有一个 x-n1-n2-y神经网络。让我们在批处理模式下用ORO毕业班训练它。<e>有一点不同。
从训练集S做一个新的集合MG=S,并将其划分为K个(有限的)子集M,使得交集M(n)&M(n+1)!=0
忽略MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(emin),如果M(emin)<e停止,则纠正错误,如果不是,则首先需要M(emin)/M(emin)-1。
这是最好的学习方式。
这个话题已经被蜘蛛网淹没了......
我注意到这样一件事...假设我们有一个神经网络x-n1-n2-y。让我们在批处理模式下用ORO grad训练它。<e>有一点不同。
从训练集S中,制作一个新的集合MG=S,并划分为K(有限)个子集M,这些子集与M(n)&M(n+1)相交!=0
我们跳过MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(Emin),如果M(Emin)<e停止,则纠正错误,如果不是,则我们仍然需要M(Emin)/M(Emin)-1。
嗯,这是一种更好的训练方式。
测试子集显示了什么?这个错误是如何表现的?
所描述的方法有时在文献中被认为是一种改良的批处理模式。
同志们。如果有人实现了随机学习算法。分享你的印象、经验等(我不需要源代码)。
P.S. 预先感谢。