脚本形式的神经网络 - 页 10

 

请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。

t[j]是阈值的权重(它与等于-1的信号相乘)。

y[i]*w[i,j]--输入乘以其权重

S[j] -应用逻辑 函数之前的结果

什么是Sum(i)?

 
sergeev писал (а)>>

请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。

t[j]是阈值的权重(它与等于-1的信号相乘)。

y[i]*w[i,j] - 输入乘以其权重

S[j] - 应用逻辑函数之前的结果

什么是Sum(i)?

Sum[i]是i的总和。我不知道如何在这里写公式。


t[j] - 神经元的阈值

y[i]*w[i,j]--该层的输出乘以绑定权重。

S[j]是应用Logistic函数前的加权和

 
TheXpert писал (а)>>

Sum[i]是i的总和。我不能在这里写公式。

这基本上就是我立即想到的金额。

--------------

重点是,阈值不是加在每个输入值上,而是在总和的末尾,然后再送入sigmoid。也就是说,它是整个输出的阈值,而不是每个输入的单独阈值。

该公式如下。

S[j]=Sum{y[i]*w[i,j]}-t[j]。

这就像尤里的。

for(i=0;i<NUM_INP;i++) // входной слой
    { 
        sum=0;
        for(j=0;j<NUM_INP;j++) sum+=ipl_W[i,j]*Input[j];
        ipl_Out[i]=Sigmoid(sum+ipl_Threshold[i]);
    }

而且原则上我同意它,因为我在文献中看到过这样的记号。

 
sergeev писал (а)>>

这基本上就是我立即想到的数额。

--------------

重点是,阈值不是在每个输入值上加的,而是在总和的最后才送入sigmoid。

因此,该公式为

S[j]=Sum{y[i]*w[i,j]}-t[j]。

尤里就是这样做的。

而且原则上我同意它,因为我在文献中看到过这样的记号。



呃,你当然是对的,我把括号放错了。

 

2 TheXpert

我从你的帖子中了解到,你是NS的专家。您能否建议一个初学者从哪里开始分析NS,以熟悉它的工作方式...

而在网络中使用反馈是一件好事吗?它在你的实践中的效果如何?

 
sergeev писал (а)>>

2 TheXpert

我从你的帖子中了解到,你是NS的专家。您能否建议初学者从哪里开始分析NS以熟悉其工作原理?

而使用反馈网络是否也是一件好事。它在你的实践中的效果如何?


说实话,我甚至不知道该怎么说。我们在大学里有两门关于NS的课程,我们从基础知识开始:基本神经元模型、网络的分类、训练方法等,然后是perseptron、线性和非线性,然后是Kohonen、Hopfield、Hemming、recurrent、recurrent网络....



关于递归网络 -- 没有在实践中使用,IMHO,它的优点同时也是缺点是它取决于它以前的状态,即根据定义它适合于交换。

但是,我还是认为,如果使用滑动窗口原理进行训练,我相信没有反馈的perseptron也能获得类似的结果。这样做还有一个好处,滑动窗口法可以让我们评估所获得的预测的稳健性/随机性(见混沌理论),不费吹灰之力,这在市场非常动荡、结果不可预测的时候会有很大帮助。

[删除]  
网络的维度和 "分层 "与模式的数量有什么关系?
 
Andy_Kon писал (а)>>
网络的维度和 "分层 "与模式的数量有什么关系?

西蒙-海金在他的《神经网络》一书的第282页,给出了一个关于具有一个隐藏层的NS的普遍性的定理。这里的含义是。

而你对 "网络维度 "这一短语的理解,我不明白。是隐藏层的神经元数量还是NS的输入数量?

如果是输入数,那么输入数与训练样本量(模式数)的乘积必须等于NS权重的平方。

如果是隐藏层的神经元数量,其数量由问题的复杂性决定,并通过实验找到。

[删除]  

维度和 "分层"

1.维度是指层中神经元的数量。

2."分层 "是指分层的数量。

3由此引出下一个问题,层中神经元的变化,从一层到另一层?

4.从层数、维度和模式(父系)的数量来看学习周期的数量--(最佳)?
 

什么是 "层中神经元的变化",是在NS训练过程中修改神经元的突触权重的过程,还是在优化过程中通过逐渐改变层中神经元的数量来寻找NS的最佳结构?

那么,训练周期的数量是由实现最小泛化误差来定义的,与层数(和其他东西)没有直接关系,尽管它弱于非线性地依赖于神经元的数量和层数。这取决于NS为寻找其全局最小值而建立的多维特征表面的 "崎岖 "程度。如果网络工作正常,那么用逆向误差传播的方法进行50-100个epochs的训练就足够了。然而,要想做好这一点,需要付出很多努力。