混合神经网络。 - 页 22

 
gumgum >> :
c-means算法谁有详细说明?

WiKi, k-means, c-means, and google ...

你想用它来做什么?

 
rip >> :

WiKi, k-means, c-means, and google ...

你想用它来做什么?

>> 混合动力来紧缩。


顺便问一下,你试过系数梯度吗?我有师父的零点了!

 

也许有人已经写了,也许没有...


在尝试了几种算法后,我遇到了一个问题>>在[N/2]*in(训练例子的数量)达到足够的误差水平。我已经用(MathRand()-MathRand())/32767初始化了权重。


通过DoubleTostr和StrToDouble初始化权重,导致达到目标的+结果!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

这个话题已经被蜘蛛网淹没了......


我注意到这个东西...假设我们有一个 x-n1-n2-y神经网络。让我们在批处理模式下用ORO毕业班训练它。<e>有一点不同。


从训练集S做一个新的集合MG=S,并将其划分为K个(有限的)子集M,使得交集M(n)&M(n+1)!=0

忽略MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(emin),如果M(emin)<e停止,则纠正错误,如果不是,则首先需要M(emin)/M(emin)-1。


这是最好的学习方式。

 
gumgum >> :

这个话题已经被蜘蛛网淹没了......


我注意到这样一件事...假设我们有一个神经网络x-n1-n2-y。让我们在批处理模式下用ORO grad训练它。<e>有一点不同。


从训练集S中,制作一个新的集合MG=S,并划分为K(有限)个子集M,这些子集与M(n)&M(n+1)相交!=0

我们跳过MG集的所有学习子集M1,M2,M3,...,M(n),M(n+1),选择M(Emin),如果M(Emin)<e停止,则纠正错误,如果不是,则我们仍然需要M(Emin)/M(Emin)-1。


嗯,这是一种更好的训练方式。


测试子集显示了什么?这个错误是如何表现的?

所描述的方法有时在文献中被认为是一种改良的批处理模式。

 

同志们。如果有人实现了随机学习算法。分享你的印象、经验等(我不需要源代码)。

P.S. 预先感谢。