文章 "神经网络诀窍" 新评论 MetaQuotes 2016.04.12 12:30 新文章 神经网络诀窍已发布:本文面向"多层"蛋糕烘焙初学者。因此,根据维基百科,Kohonen 神经网络是一类神经网络,其主要元素为 Kohonen 层。 Kohonen 层包含自适应线性加法器(“线性形式神经元”)。 通常,Kohonen 层的输出信号的处理依据是“赢家通吃”规则:最大的信号变为 1,其他信号统统变为 0。 现在让我们举个例子来讨论此概念。 为了能够看得见,将对二维输入向量给出所有计算值。 图 1 中,输入向量以彩色显示。 Kohonen 层(像任何其他层一样)的各个神经元只是计算输入内容的总和,将其乘以其权值。 实际上,Kohonen 层的所有权值都是此神经元的向量坐标。 因此,各个 Kohonen 神经元的输出是两个向量的点积。 从几何学中我们了解到,如果向量之间的角度趋于 0(角度余弦趋于 1),点积将达到最大值。因此,最大值将是最接近于输入向量的 Kohonen 层神经元的最大值。 图 1 赢家是向量最接近输入信号的神经元。 根据定义,现在我们应该找到所有神经元中的最大输出值,向其输出赋值 1,向所有其他神经元赋值 0。 Kohonen 层将在输入向量所在空间区域“回复”我们。 Kohonen 权向量的调整 如上所述,层训练的目的是对输入向量进行精确的空间分类。 这意味着各个神经元必须对其获胜的特定区域负责。 获胜神经元与输入神经元之间的偏差必须小于其他神经元的偏差。 为了达到这一目的,获胜神经元“拐入”了输入向量侧。 图 2 显示两个神经元(黑色神经元)针对两个输入向量(彩色的向量)的划分。作者:o_O 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 神经网络诀窍已发布:
本文面向"多层"蛋糕烘焙初学者。
因此,根据维基百科,Kohonen 神经网络是一类神经网络,其主要元素为 Kohonen 层。 Kohonen 层包含自适应线性加法器(“线性形式神经元”)。 通常,Kohonen 层的输出信号的处理依据是“赢家通吃”规则:最大的信号变为 1,其他信号统统变为 0。
现在让我们举个例子来讨论此概念。 为了能够看得见,将对二维输入向量给出所有计算值。 图 1 中,输入向量以彩色显示。 Kohonen 层(像任何其他层一样)的各个神经元只是计算输入内容的总和,将其乘以其权值。 实际上,Kohonen 层的所有权值都是此神经元的向量坐标。
因此,各个 Kohonen 神经元的输出是两个向量的点积。 从几何学中我们了解到,如果向量之间的角度趋于 0(角度余弦趋于 1),点积将达到最大值。因此,最大值将是最接近于输入向量的 Kohonen 层神经元的最大值。
图 1 赢家是向量最接近输入信号的神经元。
根据定义,现在我们应该找到所有神经元中的最大输出值,向其输出赋值 1,向所有其他神经元赋值 0。 Kohonen 层将在输入向量所在空间区域“回复”我们。
Kohonen 权向量的调整
如上所述,层训练的目的是对输入向量进行精确的空间分类。 这意味着各个神经元必须对其获胜的特定区域负责。 获胜神经元与输入神经元之间的偏差必须小于其他神经元的偏差。 为了达到这一目的,获胜神经元“拐入”了输入向量侧。
图 2 显示两个神经元(黑色神经元)针对两个输入向量(彩色的向量)的划分。
作者:o_O