下载MetaTrader 5

文章 "神经网络诀窍"

要添加评论,请登录注册
在市场中发布您的应用程序 - 7百万潜在客户将会看见它!
MetaQuotes Software Corp.
版主
181276
MetaQuotes Software Corp. 2016.04.12 12:30 

新文章 神经网络诀窍已发布:

本文面向"多层"蛋糕烘焙初学者。

因此,根据维基百科,Kohonen 神经网络是一类神经网络,其主要元素为 Kohonen 层。 Kohonen 层包含自适应线性加法器(“线性形式神经元”)。 通常,Kohonen 层的输出信号的处理依据是“赢家通吃”规则:最大的信号变为 1,其他信号统统变为 0。

现在让我们举个例子来讨论此概念。 为了能够看得见,将对二维输入向量给出所有计算值。 图 1 中,输入向量以彩色显示。 Kohonen 层(像任何其他层一样)的各个神经元只是计算输入内容的总和,将其乘以其权值。 实际上,Kohonen 层的所有权值都是此神经元的向量坐标。

因此,各个 Kohonen 神经元的输出是两个向量的点积。 从几何学中我们了解到,如果向量之间的角度趋于 0(角度余弦趋于 1),点积将达到最大值。因此,最大值将是最接近于输入向量的 Kohonen 层神经元的最大值。

图 1 赢家是向量最接近输入信号的神经元。

根据定义,现在我们应该找到所有神经元中的最大输出值,向其输出赋值 1,向所有其他神经元赋值 0。 Kohonen 层将在输入向量所在空间区域“回复”我们。

Kohonen 权向量的调整

如上所述,层训练的目的是对输入向量进行精确的空间分类。 这意味着各个神经元必须对其获胜的特定区域负责。 获胜神经元与输入神经元之间的偏差必须小于其他神经元的偏差。 为了达到这一目的,获胜神经元“拐入”了输入向量侧。
图 2 显示两个神经元(黑色神经元)针对两个输入向量(彩色的向量)的划分。

作者:o_O

要添加评论,请登录注册