人工智能2020--有进展吗? - 页 36

 
Mihail Marchukajtes:

你说得很对。机器在精确度、计算速度、存储容量等方面都比我们酷得多,是的,在小任务中,它们不热衷于选择(智能的副作用),直截了当,在小任务中使用它们只对人有利。但在这里,我们谈论的是机器的智能化,这是可以接受的,但与现有的技术无关。在这里,当中国人创造的材料将得到大规模的传播,以及类似物理结构的训练方法,那么我们将来到 "狂野的西部世界 "系列不前.....。

顺便说一句,这个节目是一流的。我推荐!!!!!!

恕我直言,对于中国人的成就和发现,对智力本质的理解来自于自我意识,这与技术没有什么关系。建立情报模型比训练任何NS更重要,即使是最精心设计的NS。我们只创造个别的智能功能,但没有完整性,因为没有概念。有一般的定义,工作的假设,但没有实际的 "蓝图"。 因此,我们对其离散的现象建立了不连贯的模型,我们试图从中组装一些东西。我认为这种做法是错误的。我们需要从整个智力的蓝图开始。
 
Реter Konow:
恕我直言,对中国人的成就和发现,理解智力的本质是自我意识的副产品,与技术没有什么关系。情报建模比训练任何NS更重要,即使是最复杂的NS。我们只创造了智力的独立功能,但没有完整性,因为没有概念。有一些一般的定义,工作的假设,但没有实际的 "蓝图",因此我们没有建立任何东西,只是对其离散的现象建立了零散的模型,我们试图从中组装一些东西。我认为这种做法是错误的。我们需要从整体情报的蓝图开始。
对我来说,重要的是对神经元的生物云中发生的过程进行100%的建模。嗯,我们这一代人很不走运。我们并不生活在这个时代。但我们将成为它的先驱和创始人。:-)
 
Mihail Marchukajtes:

为那些错过的人,我们又来了。已经有29个点击率了,而且我还在上面 :-)

这是什么地方?

 
Evgeniy Zhdan:
Yandex的Alice算不算?

不,爱丽丝
的技能 可以由任何人编写,不需要任何编程知识。甚至还有(现在还有吗?)一个最佳技能的竞赛。

Как создать навык для Алисы с нуля — Академия Яндекса
Как создать навык для Алисы с нуля — Академия Яндекса
  • 2019.07.05
  • academy.yandex.ru
С помощью голосового помощника Яндекса уже можно узнавать погоду, строить маршруты и управлять умным домом. Но возможности Алисы можно еще расширить: например, создать навык для заказа еды или игру-квест по управлению государством. Навык может создать и опубликовать любой пользователь с помощью платформы Яндекс.Диалоги. Чтобы это сделать, нужно...
 

嗯,那是...已经有53次点击。你把我宠坏了,同事们。

我想这是那些真正对这个话题感兴趣的人的一个指标。说实话,在普通人群中没有那么多 :-)

 
关于情报的问题。

智力是对收集到的信息进行多维度处理的系统,是一种对象。(imho)。

意识以两种基本模式反映现实--客观主观。反思是 "伪客观的",但意识倾向于保持明确的意义界限和对事物的精确测量系统,相反,在世界的主观模式中,意识概括并近似地评价一切,混合情感和态度。客观世界系统的模型可以说是被 "包裹 "在一个主观的外壳里,在某些情况下,除了外壳,什么都没有。

现代编程没有提供快速描述一组具有联系和规律性的对象的方法,现代人工智能没有 "知道 "任何东西,不能判断世界。它的命运是在查询中选择一个不变量--无论是一个人的脸、一个路标还是一个短语,它都会给出一个预先确定的反应。

德米特里-穆罗姆采夫 (ITMO智能信息处理和语义技术国际实验室负责人和IPM部门负责人) 在创建对话式人工智能问题上的做法是正确的。文章中谈到的 "本体论建模"(首页链接)确实是(我认为)解决问题的关键,但它是什么意思?- 它是一种存在的模式化。

它是什么意思?存在"(我们从小就通过各种手段和各种方式学习的周围无限的世界)与人工智能有什么关系?从技术上来说,是否有可能描述人类(或超人)的知识和经验量并将其放入数据库?而最重要的是,为什么?

我要说的是,我同意 "思想路线"--在对人类知识系统进行建模的阶段之后,我们将进入多维处理程序的实施阶段(也就是人工智能),但信息应该收集在对象中,其格式与OOP对象截然不同--更困难、更丰富,而且里面收集的是 "原块"--组件:参数、状态、形式、事件、过程和其他。原生块需要被聚集和分类,以快速组装成模板和实例,并顺便组合成复杂的系统,进一步组合成多个分类层次。

德米特里-穆罗姆采夫犯了技术专家的经典错误--他选择了预先确定的标准和解决方法,没有将自己的观点与哲学概念相结合(这是在求证)。他谈到了行业中应用的 "本体语言",但并没有提出"。 物体的真实性质可以用它们来描述吗?".在多大程度上,"知识图谱 "对 "认知 "人工智能的处理是方便和充分的?最有可能的是不充分,根本不适合--需要创造新的工具。

我相信,通向人工智能的桥梁是一个新的物的模型,但这仅仅是个开始......
 
今天的人工智能以书本的形式工作--它将文本装订在一起,而未来的人工智能将需要与参数化系统一起工作--现实世界物体的 实际模型 及其衍生物,它们相互作用,相互包含。"书本上的 "知识格式与系统的、数学上的知识有根本的不同。知 识信息机将获得一个引擎,(1)从内部 "推动 "其机制,(2)实时检索、处理和添加新数据,(3)构建新的对象系统。
 

问题主要是根本性的--它是缺乏对人工智能的定义。深入挖掘,如果一个人在逻辑上不严谨,通常会出现这样的问题:依赖现有的知识,不质疑它,并呼吁科学家的权威。更多时候,科学家、专家都是多面手,没有什么分析仪器。他们可以说很多,写很多,推导出无限长的公式,但他们无法理解基本错误。例如,大爆炸以一种基本的方式被证实,仅此而已--现在所有的科学大脑都在它下面画公式。他们允许空间的扭曲,在物质和空间、曲线和直线之间加一个等号,允许虫洞和其他。可以说很多,也可以写很多,甚至在逻辑上。但如果有一个基本的错误,而科学家中又没有逻辑学家,那么问题就会变成一个挥之不去的问题。也就是说,如果人工智能将像人类一样思考,我们将不必谈论任何技术革命--我们将简单地克隆普通的头脑,它将认为爱因斯坦是一个天才,并产生无尽的无用理论和假设。下一个革命性的步骤将是创造一个有逻辑思维的人工智能,并拥有现代计算机的无限能力。然后会有一些东西,不仅会说话,而且会向我们解释超人类主义之后的哲学方向。

有三种类型的思想:博学者、计算器和逻辑学家。多面手是瓦瑟曼,计算者是佩雷尔曼。第一个人不会计算,第二个人不知道巴西国旗上的圆点意味着什么。第一种说法是,宇宙的拓扑结构是一个十二面体或一个扁平的环形。第二个人跑去推导公式。而只有逻辑学家把空间和物质分开,定义两者的属性,把十二面体从物理学的思维过程中扔掉,因为没有必要,然后进一步工作。这就是我给出的 "思想家 "的比喻,真正的RAS物理学家确实看不到空间和空间中的物质的区别,因此允许空间扭曲、虫洞、宇宙的有限性或封闭性等等。而科学家的表情越是严肃或热情,他/她的逻辑纪律性就越差,允许自己 "允许"。

通过结合博学、计算和逻辑,分析效率是允许的。首先,人们必须定义这些概念。

据我记得,在互联网上,智力是思考的能力,智力,是心理的一个特征,处理不同的信息,是其他的东西。

首先,有必要确定智能的主要特征 - 它是在不使用所有必要的传感器和测量仪器的情况下工作的能力。例如,通过照片确定水的温度范围(有沸水的水壶照片)。拥有一个传感器并测量温度,只是为了获得数据(知识)。没有传感器和测量温度是在使用智能。

因此,智力是在不使用特殊知识和测量工具的情况下处理信息的能力。

智能的第二个特点是找到通往目标的最短路径。也就是说,如果你有一个传感器,为什么要把计算能力浪费在分析仪器上--只要把它插上就能测量。因此,智力的第二个特点是利用 "别人 "的劳动来解决问题。瓦夏整年都在学习,吸收知识,他坐在考场上,回忆着最后一道题的答案,头仰在天花板上。Petya整年都在胡闹,他在记事的时候骗走了第一个。两者都几乎完美地解决了问题。这些知识在生活中对他们没有用处,但Petya节省了很多时间来实施他的目标。

情报的第三个特点是独立于目标。与人类不同,人类受制于基本的本能和需求,智力只是一种工具,而不是一个自主单位。它可以通过增加 "存在 "的目标而变得独立。然后,智力的整个工作变得独立,因为它追求的目标是随时 "开机",或者简单地说,"活着"。因此,人工智能的危险问题--如果有人创造了一个分析-逻辑装置,并给它设置了一个基本的安全模块,其目标是一直存在,那么这样的人工智能会寻找一种方法来实现目标,并将危险归类为人类的形式--这个过程中的主要控制环节。
但是,这对情报工作来说不是强制性的。因此,语音识别也是人工智能,是它的一小部分。

因此,对于人工智能来说,要回答牛为什么不飞的问题,它至少必须区分逻辑答案:完整的--"因为牛在生理上缺乏飞行的器官",不完整的--"因为牛不是鸟",以及独立的--"所以她不需要",幽默的--"达尔文禁止它",诸如此类。而根据答案,对答案的性质进行分类是不可避免的,这已经是个性的表现。

从根本上说,有两种方法可以创造人工智能:

1)持续学习--建立知识数据库,随后对记忆中的信息进行修正。
2)逻辑三角洲:原量子扫视宇宙,从场物质和粒子到分子、物质、生物和社会学的复杂结构--将它们分解成一个大表。(我在什么地方看到过一篇关于这个的文章,但不记得在哪里了),然后把整个表格扔到一个神经元里。而且,处理能力越强,神经元独立学习世界和人类尚未达到的一切的速度就越快,预测出解决任何问题的模型和技术,无论是冠状病毒的疫苗配方、天气预报,还是引力推进系统的开发。换句话说,将没有什么可学的,人工智能将在物理规律的范围内解决任何问题,主要的是在它面前正确地制定这些问题。

现在的发展是以第一种方式进行的,缓慢的,对于第二种变体,如果有地方,显然不会被宣传。

 
Ivan Butko:

...

首先--非常感谢你的扩展和深思熟虑的意见--它包含了很多有趣和原创的观点,是这个主题中最好的帖子之一。

其次。你显然是一个人道主义者,并试图从所有可能的角度来看待人工智能问题;道德和存在主义的角度非常好,但技术上的角度却不准确。

就这样。

  1. 人工智能的定义就在那里--它是 一个对收集到的信息进行多维处理的系统。我强调--正是对象。为什么这很重要?- 因为人类思维所处理的一切都有一个格式--对象。人类究竟如何处理这些对象是第二个问题,而许多工具是可用的:分类、计算、建模、处理数值、参数、属性、预测、概括、外推和内插、构建层次结构和逻辑联系等等。换句话说,事实证明,从技术角度看,智力活动没有 "魔力"--它只是与环境对象的复杂功能的工作,它在自己身上 "反映"。

2.你说,如果我们复制普通人的思想,我们就不会进行技术革命--这不是真的。技术革命是关于人类劳动的完全修复--包括身体和精神--而接下来--对世界的影响将是巨大的--是另一个领域的问题。重要的是,人工智能带来了一场世界革命 无论如何.

3.从技术角度来看--复制一个普通的、平均的智能体要 比创造一个没有经验和感觉的、强大无比的计算型智能机器困难 得多。除了智力之外,普通人还有一个复杂的心理,其世界对我们来说是不可理解的,因此无法进行复制。不可能意外地在人工智能中加入我们无法理解的东西。可以写功能,但不能写精神世界。另外,它将干扰机器有效运作的能力,并为日常人建立一个物质天堂)。心理会降低人工智能的性能,减少效率,增加解决问题的时间和结果的误差,最重要的是,它不会在商业上得到回报--所以没有必要重新创造它)。

4.创造一个将 "独立于 "目标 的人工智能是没有实际意义的(也许它也无法发挥作用)--有必要创造一个 旨在解决广泛问题的机器,而不是一个中年危机的失业者在离婚后,在佛教中寻求安慰的个性,然后把解决世界问题的任务堆在它身上。创造人工智能的目的是在理性圈内自动解决所有可能的问题:工业、家庭、科学,甚至可能是政治。这样的人工智能无疑将导致一场工业和产业革命。我强调:人工智能将永远(无条件地)依赖于人类的目标,并将只以超强的 "计算器 "角色存在。一个人自己的目标设定、自我意识和精神追求永远不会在机器中重现,因为人类没有能力理解和计算它们。其余关于这个问题的意见仅仅是幽玄者的幻想。

5."为什么牛不会飞"的问题是对现代人工智能的考验。从下一代开始,它必须 "知道 "物理世界的物体、现象和规律,并 "知道 "如何为它们导航。遗憾的是,它甚至在以后还能对它们进行幽默和猜测。在这种情况下,人工智能关于世界的幽默和 "脱口秀 "将不得不基于计算和计算,而不是准备的文本。也就是说,人工智能不需要从书本和文章中 "学习",它的工作必须是在参数系统化和制定计算的层面上的算法,而答案的背景(幽默、幽雅或科学)必须是在情景或对话的背景下处理意义的结果。


从以上所有的结论是,只要有正确的方法和与之相关的有限目标,人工智能是可发展和可建设的。有可能创建一个具有感官分析功能的对话式人工智能,并在处理作为参数系统的对象的基础上计算结果,但解释起来很漫长。)

 
马克西姆-费多罗夫,Skoltech公司的人工智能和数学建模副总裁,从伦理、法律和技术的角度谈人工智能的发展。

"在各个委员会的高层,正在讨论强人工智能的问题,在未来50-100年内没有也不会有(也许根本没有)。问题是,通过讨论不存在的和近期内不会存在的危险,我们错过了真正的威胁。重要的是要了解什么是人工智能,并制定一套明确的道德规范和规则。如果你遵循它,你会得到好处,如果你不遵循它,你会得到伤害。