文章 "神经网络变得轻松(第二十部分):自动编码器" 新评论 MetaQuotes 2022.10.17 10:36 新文章 神经网络变得轻松(第二十部分):自动编码器已发布: 我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。 一般情况下,自动编码器是由两个编码器和解码器模块组成的神经网络。 编码器源数据层和解码器结果层包含相同数量的元素。 它们之间有一个隐藏层,通常比源数据小。 在学习过程中,这一层的神经元形成一种潜在(隐藏)状态,能以压缩形式描述源数据。 这类似于我们采用主成分分析方法解决的数据压缩问题。 不过,稍后我们讨论的方法中会存在一些差异。 如上所述,自动编码器是一种神经网络。 它通过反向传播方法进行训练。 诀窍在于,因为我们用的是未标记的数据,所以我们首先训练模型,再用编码器将数据压缩到潜在状态的大小。 然后,在解码器中,模型在数据恢复到原始状态时信息损失将会最小。 作者:Dmitriy Gizlyk Vasiliy Smirnov 2022.07.11 16:01 #1 这很简单,只是各部分已经有 20 个部分)。 Dmitriy Gizlyk 2022.07.11 16:06 #2 Vasiliy Smirnov #: 它很简单,但已经有 20 个部分)。 我试图展示不同的方法和不同的使用方式。 而 "它很简单 "这个名字则是为了强调这项技术对每个想使用它的人来说都是无障碍的。 byronjames88 2022.09.30 01:45 #3 嗨,德米特里,你能帮我设置和运行这个 EA 吗? 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 神经网络变得轻松(第二十部分):自动编码器已发布:
我们继续研究无监督学习算法。 一些读者可能对最近发表的与神经网络主题的相关性有疑问。 在这篇新文章中,我们回到了对神经网络的研究。
一般情况下,自动编码器是由两个编码器和解码器模块组成的神经网络。 编码器源数据层和解码器结果层包含相同数量的元素。 它们之间有一个隐藏层,通常比源数据小。 在学习过程中,这一层的神经元形成一种潜在(隐藏)状态,能以压缩形式描述源数据。
这类似于我们采用主成分分析方法解决的数据压缩问题。 不过,稍后我们讨论的方法中会存在一些差异。
如上所述,自动编码器是一种神经网络。 它通过反向传播方法进行训练。 诀窍在于,因为我们用的是未标记的数据,所以我们首先训练模型,再用编码器将数据压缩到潜在状态的大小。 然后,在解码器中,模型在数据恢复到原始状态时信息损失将会最小。
作者:Dmitriy Gizlyk