文章 "神经网络变得轻松(第二十部分):自动编码器" 新评论 MetaQuotes 2022.10.17 10:36 新文章 神经网络变得轻松(第二十部分):自动编码器已发布: 我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。 一般情况下,自动编码器是由两个编码器和解码器模块组成的神经网络。 编码器源数据层和解码器结果层包含相同数量的元素。 它们之间有一个隐藏层,通常比源数据小。 在学习过程中,这一层的神经元形成一种潜在(隐藏)状态,能以压缩形式描述源数据。 这类似于我们采用主成分分析方法解决的数据压缩问题。 不过,稍后我们讨论的方法中会存在一些差异。 如上所述,自动编码器是一种神经网络。 它通过反向传播方法进行训练。 诀窍在于,因为我们用的是未标记的数据,所以我们首先训练模型,再用编码器将数据压缩到潜在状态的大小。 然后,在解码器中,模型在数据恢复到原始状态时信息损失将会最小。 作者:Dmitriy Gizlyk 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 神经网络变得轻松(第二十部分):自动编码器已发布:
我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。
一般情况下,自动编码器是由两个编码器和解码器模块组成的神经网络。 编码器源数据层和解码器结果层包含相同数量的元素。 它们之间有一个隐藏层,通常比源数据小。 在学习过程中,这一层的神经元形成一种潜在(隐藏)状态,能以压缩形式描述源数据。
这类似于我们采用主成分分析方法解决的数据压缩问题。 不过,稍后我们讨论的方法中会存在一些差异。
如上所述,自动编码器是一种神经网络。 它通过反向传播方法进行训练。 诀窍在于,因为我们用的是未标记的数据,所以我们首先训练模型,再用编码器将数据压缩到潜在状态的大小。 然后,在解码器中,模型在数据恢复到原始状态时信息损失将会最小。
作者:Dmitriy Gizlyk