脚本形式的神经网络 - 页 10 1...34567891011121314 新评论 --- 2008.07.01 15:53 #91 请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。 t[j]是阈值的权重(它与等于-1的信号相乘)。 y[i]*w[i,j]--输入乘以其权重 S[j] -应用逻辑 函数之前的结果 什么是Sum(i)? TheXpert 2008.07.01 16:26 #92 sergeev писал (а)>> 请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。 t[j]是阈值的权重(它与等于-1的信号相乘)。 y[i]*w[i,j] - 输入乘以其权重 S[j] - 应用逻辑函数之前的结果 什么是Sum(i)? Sum[i]是i的总和。我不知道如何在这里写公式。 t[j] - 神经元的阈值 y[i]*w[i,j]--该层的输出乘以绑定权重。 S[j]是应用Logistic函数前的加权和 --- 2008.07.01 16:43 #93 TheXpert писал (а)>> Sum[i]是i的总和。我不能在这里写公式。 这基本上就是我立即想到的金额。 -------------- 重点是,阈值不是加在每个输入值上,而是在总和的末尾,然后再送入sigmoid。也就是说,它是整个输出的阈值,而不是每个输入的单独阈值。 该公式如下。 S[j]=Sum{y[i]*w[i,j]}-t[j]。 这就像尤里的。 for(i=0;i<NUM_INP;i++) // входной слой { sum=0; for(j=0;j<NUM_INP;j++) sum+=ipl_W[i,j]*Input[j]; ipl_Out[i]=Sigmoid(sum+ipl_Threshold[i]); } 而且原则上我同意它,因为我在文献中看到过这样的记号。 TheXpert 2008.07.01 16:54 #94 sergeev писал (а)>> 这基本上就是我立即想到的数额。 -------------- 重点是,阈值不是在每个输入值上加的,而是在总和的最后才送入sigmoid。 因此,该公式为 S[j]=Sum{y[i]*w[i,j]}-t[j]。 尤里就是这样做的。 而且原则上我同意它,因为我在文献中看到过这样的记号。 呃,你当然是对的,我把括号放错了。 --- 2008.07.01 16:58 #95 2 TheXpert 我从你的帖子中了解到,你是NS的专家。您能否建议一个初学者从哪里开始分析NS,以熟悉它的工作方式... 而在网络中使用反馈是一件好事吗?它在你的实践中的效果如何? TheXpert 2008.07.01 17:17 #96 sergeev писал (а)>> 2 TheXpert 我从你的帖子中了解到,你是NS的专家。您能否建议初学者从哪里开始分析NS以熟悉其工作原理? 而使用反馈网络是否也是一件好事。它在你的实践中的效果如何? 说实话,我甚至不知道该怎么说。我们在大学里有两门关于NS的课程,我们从基础知识开始:基本神经元模型、网络的分类、训练方法等,然后是perseptron、线性和非线性,然后是Kohonen、Hopfield、Hemming、recurrent、recurrent网络.... 关于递归网络 -- 没有在实践中使用,IMHO,它的优点同时也是缺点是它取决于它以前的状态,即根据定义它适合于交换。 但是,我还是认为,如果使用滑动窗口原理进行训练,我相信没有反馈的perseptron也能获得类似的结果。这样做还有一个好处,滑动窗口法可以让我们评估所获得的预测的稳健性/随机性(见混沌理论),不费吹灰之力,这在市场非常动荡、结果不可预测的时候会有很大帮助。 [删除] 2008.07.02 06:48 #97 网络的维度和 "分层 "与模式的数量有什么关系? Neutron 2008.07.02 09:18 #98 Andy_Kon писал (а)>> 网络的维度和 "分层 "与模式的数量有什么关系? 西蒙-海金在他的《神经网络》一书的第282页,给出了一个关于具有一个隐藏层的NS的普遍性的定理。这里的含义是。 而你对 "网络维度 "这一短语的理解,我不明白。是隐藏层的神经元数量还是NS的输入数量? 如果是输入数,那么输入数与训练样本量(模式数)的乘积必须等于NS权重的平方。 如果是隐藏层的神经元数量,其数量由问题的复杂性决定,并通过实验找到。 [删除] 2008.07.02 10:03 #99 维度和 "分层" 1.维度是指层中神经元的数量。 2."分层 "是指分层的数量。 3由此引出下一个问题,层中神经元的变化,从一层到另一层? 4.从层数、维度和模式(父系)的数量来看学习周期的数量--(最佳)? Neutron 2008.07.02 10:30 #100 什么是 "层中神经元的变化",是在NS训练过程中修改神经元的突触权重的过程,还是在优化过程中通过逐渐改变层中神经元的数量来寻找NS的最佳结构? 那么,训练周期的数量是由实现最小泛化误差来定义的,与层数(和其他东西)没有直接关系,尽管它弱于非线性地依赖于神经元的数量和层数。这取决于NS为寻找其全局最小值而建立的多维特征表面的 "崎岖 "程度。如果网络工作正常,那么用逆向误差传播的方法进行50-100个epochs的训练就足够了。然而,要想做好这一点,需要付出很多努力。 1...34567891011121314 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。
t[j]是阈值的权重(它与等于-1的信号相乘)。
y[i]*w[i,j]--输入乘以其权重
S[j] -应用逻辑 函数之前的结果
什么是Sum(i)?
请描述公式S[j]=Sum(i)(y[i]*w[i,j]-t[j])中的记号。按照我的理解。
t[j]是阈值的权重(它与等于-1的信号相乘)。
y[i]*w[i,j] - 输入乘以其权重
S[j] - 应用逻辑函数之前的结果
什么是Sum(i)?
Sum[i]是i的总和。我不知道如何在这里写公式。
t[j] - 神经元的阈值
y[i]*w[i,j]--该层的输出乘以绑定权重。
S[j]是应用Logistic函数前的加权和
Sum[i]是i的总和。我不能在这里写公式。
这基本上就是我立即想到的金额。
--------------
重点是,阈值不是加在每个输入值上,而是在总和的末尾,然后再送入sigmoid。也就是说,它是整个输出的阈值,而不是每个输入的单独阈值。
该公式如下。
S[j]=Sum{y[i]*w[i,j]}-t[j]。
这就像尤里的。
而且原则上我同意它,因为我在文献中看到过这样的记号。
这基本上就是我立即想到的数额。
--------------
重点是,阈值不是在每个输入值上加的,而是在总和的最后才送入sigmoid。
因此,该公式为
S[j]=Sum{y[i]*w[i,j]}-t[j]。
尤里就是这样做的。
而且原则上我同意它,因为我在文献中看到过这样的记号。
呃,你当然是对的,我把括号放错了。
2 TheXpert
我从你的帖子中了解到,你是NS的专家。您能否建议一个初学者从哪里开始分析NS,以熟悉它的工作方式...
而在网络中使用反馈是一件好事吗?它在你的实践中的效果如何?
2 TheXpert
我从你的帖子中了解到,你是NS的专家。您能否建议初学者从哪里开始分析NS以熟悉其工作原理?
而使用反馈网络是否也是一件好事。它在你的实践中的效果如何?
说实话,我甚至不知道该怎么说。我们在大学里有两门关于NS的课程,我们从基础知识开始:基本神经元模型、网络的分类、训练方法等,然后是perseptron、线性和非线性,然后是Kohonen、Hopfield、Hemming、recurrent、recurrent网络....
关于递归网络 -- 没有在实践中使用,IMHO,它的优点同时也是缺点是它取决于它以前的状态,即根据定义它适合于交换。
但是,我还是认为,如果使用滑动窗口原理进行训练,我相信没有反馈的perseptron也能获得类似的结果。这样做还有一个好处,滑动窗口法可以让我们评估所获得的预测的稳健性/随机性(见混沌理论),不费吹灰之力,这在市场非常动荡、结果不可预测的时候会有很大帮助。
网络的维度和 "分层 "与模式的数量有什么关系?
西蒙-海金在他的《神经网络》一书的第282页,给出了一个关于具有一个隐藏层的NS的普遍性的定理。这里的含义是。
而你对 "网络维度 "这一短语的理解,我不明白。是隐藏层的神经元数量还是NS的输入数量?
如果是输入数,那么输入数与训练样本量(模式数)的乘积必须等于NS权重的平方。
如果是隐藏层的神经元数量,其数量由问题的复杂性决定,并通过实验找到。
维度和 "分层"
1.维度是指层中神经元的数量。
2."分层 "是指分层的数量。
3由此引出下一个问题,层中神经元的变化,从一层到另一层?
4.从层数、维度和模式(父系)的数量来看学习周期的数量--(最佳)?什么是 "层中神经元的变化",是在NS训练过程中修改神经元的突触权重的过程,还是在优化过程中通过逐渐改变层中神经元的数量来寻找NS的最佳结构?
那么,训练周期的数量是由实现最小泛化误差来定义的,与层数(和其他东西)没有直接关系,尽管它弱于非线性地依赖于神经元的数量和层数。这取决于NS为寻找其全局最小值而建立的多维特征表面的 "崎岖 "程度。如果网络工作正常,那么用逆向误差传播的方法进行50-100个epochs的训练就足够了。然而,要想做好这一点,需要付出很多努力。