文章 "第三代神经网络:深度网络" - 页 4

 

vlad1949:


...独行侠(可能是天才程序员)的发展还没有实际实现。

就是这样。第一个版本发布在 code.google.com。该项目名为libvmr。

到目前为止只能在 Java 上使用。稍后我将把它移植到其他语言,包括 mql5。

vlad1949

...

我有个建议:在 Reshetov 的博客或单独的主题(如果他组织的话)中讨论他的主题。

这里欢迎大家就文章主题 "深度神经网络 "发表意见和看法。

深度学习也是可能的。

例如,为了改进分类,比如图像分类,那么可以使用不变性 来训练自动编码器。例如,我们需要区分两类图像。让它们成为带有这些指标图像的金融工具图表。第一类是报价向上增长之前的图表。第二类是报价向下增长前的图表。在这种情况下,在训练自动编码器时,有必要为第一类提供不变的图像输入,而为第二类提供反向图像,即负值图像。

此外,用反向传播算法训练好的自动编码器可以组合成一个级联,并在输出端放置一个用 VMR 训练好的神经元。

 

Reshetov:

如果你是对的,你那通过图灵测试的 "深邃 "智慧应该已经奴役了互联网,统治了世界。

老实说,我真受不了你这么有主见。

 
TheXpert:

如果你是对的,你那通过图灵测试的 "深邃 "智慧,应该已经奴役了互联网,统治了世界。

安德柳卡,别弄出太大动静。否则,传令兵们会听到图灵的事,醒悟过来,到那时,夺取世界统治权的行动就会结束。

TheXpert:

老实说,我真受不了你这么有主见.......

吃点镇静剂就没事了。在智力奴役之后,你会得到宇宙的十分之一,如果你不大声咆哮的话。

 

写完这篇文章后,我就看到了 "深度学习 "领域 顶尖 研究人员之一 Yoshua Bengio等人的一本书的草稿 http://www.iro.umontreal.ca/~bengioy/dlbook/

书中涉及大量数学知识,但同时也给出了该主题从基础到高级的清晰定义和基本概念。

以下是自由翻译的一些摘录。

第 10 节"无监督学习和迁移学习",作者 认为,虽然教师指导下的学习一直是 近期深度学习工业成功的 主力 ,但未来进步的一个关键因素可能是在 没有教师 指导的情况 下对 表征 (图像? )进行无监督学习。)我们的想法是,有些表征可能比其他表征更有用(例如,从图像中对物体进行分类,或从语音中对音素进行分类)。 正如本文所论证的那样,这涉及到学习表征,以便以系统的方式选择最佳表征,即:通过优化表征特征,使表征更有价值。 通过优化表示原始数据的特征 其表征и表征.

在本文中 ,我们回顾了表征 无监督学习的一些基本构件( AutoEncoder 和 RBM) ,以及将它们组合起来形成深度表征(Stacked AutoEncoder 和 Stacked RBM) 非常成功的方法,这些方法都经过贪婪的 分层无监督预训练

随后,在 使用教师训练深度网络 微调),我们 训练表征的 目标是选择 最适合 预测输入所代表 目标 的任务的 表征

如果我们有许多任务,而不是一个任务,这些任务可能有 共同表征 部分表征 ,那会怎样 呢?(这就是多任务学习)

"迁移学习和领域适应

知识迁移 和领域适应指的是,某些 条件下 (即 P1 分布)学习到的
知识 被用于提高在其他条件下(如 P2 分布)的泛化能力。

在知识迁移的情况下,我们认为任务 不同的,但解释 P1 分布的 许多
因素与学习 P2 时必须把握的变化相关。这通常是在监督 学习 的背景下理解的其中输入ы 是相同的 相同ы输入相同,但目标可能不同性质不同、 例如,学习第一个第二个 案例不同的 视觉类别。如果第一个 样本 (取自 P1) 中的数据多得多 那么在处理 P2 中的例子时, 学习有助于快速归纳的表征可能会有所帮助。

例如,许多视觉类别 都有共同的 低级概念边缘视觉形状) 几何变化 的效果 、光线变化等。

一般来说, 当存在对 不同 环境或任务有用的特征 (即存在共同的基本因素)时,就 可以通过学习表征 实现知识迁移、 多任务学习 领域 适应

领域适应的情况下,我们认为要解决的任务是相同的,但输入集是不同的。 例如,如果我们预测 互联网 上的文字评论相关的情感(正面负面 ,那么 第一个样本可能参考消费者 对书籍、视频和音乐的 评论,而第二个 样本 可能参考电视其他产品

虽然多任务学习通常被认为是在有教师指导的情况下进行的学习,但迁移学习这一更为普遍的概念也适用于无监督学习和强化学习。

迁移学习的一种极端形式是单次学习,甚至是零次学习,即只 提供或不提供新任务的示例。

简而言之,有两个重要结论。

  1. 对于预训练的神经网络深度学习,谈论单个预测因子的重要性毫无意义。重要的是集合的内部结构。这样就可以在没有教师的训练阶段提取 深度表征(图像),并在有教师的训练阶段确定它们与手头任务的对应程度。

  2. 预训练的一个积极副作用是, 提取的表征非常适合 神经网络 解决 另一项任务,而不是我们 在第二阶段 教给 它的 任务

更具体地说, 如果你 仔细阅读这 篇文章 就会发现 我们训练神经网络通过呈现之字形信号来对输入进行分类。因此, 准确率 结果 并不令人印象深刻。但是, 使用 训练有素的 神经网络 预测信号得到的总余额 结果却 高于 使用之字形信号得到的 结果! 为了评估预测的效率,我引入了一个系数 K。 例如, ZZ 而言,它等于 17,而对网络预测而言,根据工具的不同,它从 25 到 35 不等 (在 TF M30 上)

这就是知识 转移 迁移学习)--在对一组数据进行学习时,我们会得到多个 不同 任务的 解决方案

这是一个极具前景和发展潜力的课题。

为了完成本文开始的工作,我将在下一篇文章中举例说明如何 使用进化(遗传)算法优化 DN SAE 参数

我没有考虑使用 DN SRBM。 在我的实践中,它还没有显示出稳定的结果。

成功案例

 
vlad1949:

写完这篇文章后,我就看到了 "深度学习 "领域 顶尖 研究人员之一 Yoshua Bengio等人的一本书的草稿 http://www.iro.umontreal.ca/~bengioy/dlbook/

书中涉及大量数学知识,但同时也给出了该主题从基础到高级的清晰定义和基本概念。


老实说,当我读到这篇文章时,我的感觉是有点奇怪,有点云里雾里,但我把它当作一种 "堆砌 "的方法。后来,我读了链接上的书。唉,这部著作中介绍的几乎所有内容都是咀嚼已久的观点,被某个人当作新奇的东西来介绍。现在,我这个数学家和研究工程师只想说一句话:这个课题是为了从国家预算中榨取钱财,唉。

顺便说一句,书中没有数学(一些自己的数学,而不是从教科书上抄来的)。只有一些公式形式的咒语....。至少在这个方向出现一些真正的新想法之前,我看不到总体的科学前景。但这首先需要的是理论 研究(没有人在做这项工作),而不是实用魔法。到目前为止,这些人显然还没有真正明白他们想要什么。

 
alsu: 但这首先需要的是理论 研究(没有人在做这项工作),而不是实用魔术。显然,到目前为止,这些人自己并不真正明白他们想要什么。

所以,你想禁止 CS 的应用,让理论书呆子去做吗?

即使没有书呆子,很显然,只有最清晰的信号才会通过自动编码器或 MB 泄漏出来,其他一切都会被抹去,变得无影无踪。

 
Reshetov:

所以你想禁止 CS 应用,让理论书呆子们反对它?

当然不是。我只是在尽我所能打击用萨满教取代科学(不管是应用科学还是理论科学)的企图。而这正是 NS 领域正在发生的事情,事实上,NS 在应用和理论两个领域已经困顿了十年。
 
alsu:
当然不是。我只是在尽我所能与用萨满教取代科学的企图作斗争,不管是应用科学还是理论科学。而这正是 NS 领域正在发生的事情,实际上该领域在应用和理论两方面都陷入困境已有十年之久。

科学的问题是什么?谁禁止机器学习理论化?

另一个原因是,所有这些理论都可以在短时间内被推翻,因为有开放的应用领域样本库,也有 R 或 Weka 等现成的研究软件包,任何人都可以借助它们轻松推翻任何理论假设。

正是因为缺乏问题,机器学习才会在短裤中成长起来,当时只有简单的理论,但在算法通用性领域的实际成果并不突出。随着计算资源 的普及,应用科学家将理论书呆子挤出了这一领域。

 
Reshetov:

科学有什么问题?谁禁止对机器学习进行理论研究?

另一个原因是,所有这些理论都可以在短时间内被推翻,因为有来自应用领域的开放样本库,还有 R 或 Weka 等现成的研究软件包,任何人都可以借助它们轻松推翻任何理论假设。

正是因为缺乏问题,机器学习才会在短裤中成长起来,当时只有简单的理论,但算法通用性领域的实际成果还不在基座之上。计算资源 一普及,应用科学家们就把理论书呆子挤出了这个领域。

我们的分歧到底在哪里?应用科学家取代书呆子自然是件好事。此外,随着计算资源 的普及,许多以前必须从理论上思考的问题变得可以解决了。但这并不意味着计算资源可以解决所有问题。广泛的方式并非永恒,它的可能性已经走到尽头。因此,我们迟早都要回到植物学。

 
祝大家新年快乐!祝好运