文章 "您应当知道的 MQL5 向导技术(第 10 部分):非常规 RBM" 新评论 MetaQuotes 2024.09.25 14:05 新文章 您应当知道的 MQL5 向导技术(第 10 部分):非常规 RBM已发布: 限制性玻尔兹曼(Boltzmann)机处于基本等级,是一个两层神经网络,擅长通过降维进行无监督分类。我们取其基本原理,并检验如果我们重新设计和训练它,我们是否可以得到一个实用的信号滤波器。 限制性玻尔兹曼机(RBM)是一种神经网络形式,其结构非常简单,在特定圈子中,它们颇受推崇,在于它们能揭示数据集中隐藏的属性和特征。它们从较大维度的输入数据中通过学习,完成较小维度的权重,这些权重通常作为参考概率分布。如常,可从此处阅读更多内容,但通常它们的结构可以用下图来描绘: [картинка] 典型情况,RBM 由 2 层组成,(我说典型是因为有一些网络将它们堆叠成变换器),一个可见层和一个隐藏层,可见层比隐藏层更大(含有更多的神经元)。在所谓的正相阶段,可见层中的每个神经元都与隐藏层中的每个神经元相连接,如此,在这个阶段(大多数神经网络都很常见),可见层的输入值乘以连接神经元的权重值,且这些乘积的总和会被添加到偏差中,以便判定相应隐藏神经元的数值。随后是与之相逆的负相阶段,且经由不同的神经元连接,它旨在从隐藏层中的计算值开始将输入数据恢复到其原始状态。 故此,正如人们所期望的那样,在早前的一环中,重建的输入数据必然与初始输入数据不匹配,因为 RBM 通常使用随机权重进行初始化。这意味着需要调整权重,以便重建的输出更接近初始输入数据,这是每个环节之后的附加阶段。这个环节的正相阶段、后随的负相阶段、以及权重调整,其最终结果和意图,是达到连接神经元权重,即将其应用于输入数据时,可为我们提供“直观”的隐藏层中的神经元数值。隐藏层中的这些神经元数值就是所谓的输入数据遍布于隐藏神经元的概率分布。 作者:Stephen Njuki 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
新文章 您应当知道的 MQL5 向导技术(第 10 部分):非常规 RBM已发布:
限制性玻尔兹曼(Boltzmann)机处于基本等级,是一个两层神经网络,擅长通过降维进行无监督分类。我们取其基本原理,并检验如果我们重新设计和训练它,我们是否可以得到一个实用的信号滤波器。
限制性玻尔兹曼机(RBM)是一种神经网络形式,其结构非常简单,在特定圈子中,它们颇受推崇,在于它们能揭示数据集中隐藏的属性和特征。它们从较大维度的输入数据中通过学习,完成较小维度的权重,这些权重通常作为参考概率分布。如常,可从此处阅读更多内容,但通常它们的结构可以用下图来描绘:
[картинка]
典型情况,RBM 由 2 层组成,(我说典型是因为有一些网络将它们堆叠成变换器),一个可见层和一个隐藏层,可见层比隐藏层更大(含有更多的神经元)。在所谓的正相阶段,可见层中的每个神经元都与隐藏层中的每个神经元相连接,如此,在这个阶段(大多数神经网络都很常见),可见层的输入值乘以连接神经元的权重值,且这些乘积的总和会被添加到偏差中,以便判定相应隐藏神经元的数值。随后是与之相逆的负相阶段,且经由不同的神经元连接,它旨在从隐藏层中的计算值开始将输入数据恢复到其原始状态。
故此,正如人们所期望的那样,在早前的一环中,重建的输入数据必然与初始输入数据不匹配,因为 RBM 通常使用随机权重进行初始化。这意味着需要调整权重,以便重建的输出更接近初始输入数据,这是每个环节之后的附加阶段。这个环节的正相阶段、后随的负相阶段、以及权重调整,其最终结果和意图,是达到连接神经元权重,即将其应用于输入数据时,可为我们提供“直观”的隐藏层中的神经元数值。隐藏层中的这些神经元数值就是所谓的输入数据遍布于隐藏神经元的概率分布。
作者:Stephen Njuki