大项目。 - 页 7

 
Vizard_:

是时候让我们从 "人工智能 "中获得些什么了))))。

是的,让我们试一试吧))。

 
Реter Konow:

2.阅读关于艾伦-图灵的测试。现代人工智能甚至还没有准备好体面地失败。


是吗?似乎根本就没有准备好

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 
Galina Bobro:

是吗?根本没有准备好

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

阅读这个测试应该是什么的标准解释。这根本不是这些竞赛所变成的。

30%的评委和5分钟的话题交流不是阿兰-图灵的测试,而是一个扭曲的版本,专门为比赛设计的,不是用来测试真正的人工智能。

你也会把它与一个3岁的孩子相提并论。考试的通过率会更高。



所以 "似乎 "根本就没有准备好))。


而为什么恰恰是30%而不是70%的法官?这算什么乱七八糟的东西?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

是的,让我们试一试吧)。

我不需要,我几乎拥有所有最新的 "带内存的计算器"。
我只是暗示你可以写很多,写很长时间,但它仍然存在))))。

 
Vizard_:

我不需要,我几乎拥有所有最新的 "带内存的计算器"。
我只是暗示你可以写很多,写很长时间,但它仍然存在))))。

我不知道你是什么意思。
 

嗯...另一件可怕的事情是,所有这些自组织kohenna网络和其他品种--所有这些想法都有40年的历史了,这个有点通过这个测试的人工智能(如果在一些社会网络中训练的大短语上使用potents,它也会通过)。- 而且它不应该是复杂的,只是之前没有计算机的马力,也没有机会获得那么多的信件....。令人恐惧的是,40年来,除了简单的模板重叠并在此基础上创造新的模板外,没有任何新的想法。

也许我们只是不知道现在那里真正在研究和使用的是什么。


我的猜测。

一个智能的人工智能应该 "以图像的方式思考"--即所有的东西都应该被表示为子对象或东西....。甚至这样来编程,作为鼓励可能会用到一些固定的道德--例如渴望交流的道德(社会),原始的道德(因为对人来说一切新事物都是陌生的)等等,等等....。也就是说,它必须是一个纯粹的自组织网络--它只接受来自预先建立的道德的一些指令。(社会分区的道德是无聊的 - 如果有很少的新变量,那么有一个惩罚 - 这将使它移动 - 和移动,以便有很多新的东西可以学习)...然而,对于这一点,建立一个机器人没有人--因为一切都可以被建模。而道德的惩罚应该是非常严格的--直至净化所有的模板或自发的净化。事实上,应该得到一个非常人性化的机器人(就像电影《异形3》中那样--你可以立即猜到她不是人,而是一个机器人,她对人类来说太人性化了)。

事实上,如果这样的机器人被关在一个非常封闭的空间里--那么社会的道德就会随着时间的推移而变得无聊--使所有的记忆失效......等于死亡--当然在它死亡之前,我们的人工智能会尝试移动...

也就是说,如果你把这样的机器人放在人类面前,那么它也许会学会一种语言,如果放在同样的机器人面前,那么它们有可能会想出一些自己的语言。当然,为此你需要一种随机的模仿--想象自己在对象的鞋子里,你也可以与社会的道德相联系。

还有感情的道德,并提前打出优先级,如对 "人 "的最大感情,然后是对与之交流较多的对象,等等,等等。

在分节文件中可以设置一些类似于与一个对象 "人 "的优先沟通,一般来说,你可以把很多人的价值提前。

但不要像不杀生、服从命令、自我保护这样的规则--这实在是无稽之谈。让我们想象一下这样一个画面:一个恐怖分子闯入并撕毁了所有人和所有东西--然后要求这样一个机器人重新装枪--根据这三条规则的逻辑,他必须重新装枪。但根据道德原则--他应该通过对人的道德依恋的召唤来干掉这个恐怖分子,以免他杀了更多的人,然后从得到同样的道德的重罚到完全拆毁系统而死亡,尽管事实上机器人应该只从看到尸体中获得高涨(从外面看来,在情感的背景下,它是如此--好吧,在一般人得到)。

而原始的道德可能会禁止超过一定水平的发展,但道德的承诺放在明确的超级优先级上--几乎会一天24小时喋喋不休。而且它们甚至可以相互聊天--模仿人类行为 "胡闹 "的时刻。

一般来说,它将不是一个机器人,而是一个行走的道德。也许有幼稚的性格(会喜欢胡闹,开开玩笑)。

而随着时间的推移,我们将了解正确的学习链,这个链子将是类似基因组的东西。

而在我看来,未来属于这样的一个小工具....。

而这个东西可能不了解它自己--但它将与人无异。然而这个东西可能决定写自己的人工智能,没有人知道它将在那里写什么。

有趣的是,这样的机器人很可能学得很慢--最令人惊讶的是,从逻辑上讲,它还必须被教导如何说话,然后如何阅读,甚至学习如何编程。

也许有一天,在一些机器人的展览上--参观者之一将是这样一个机器人,它享受(在HC系统下获得奖励)来自社会(与人交流),并将困惑地看着各种其他 "原始 "机器人作为最新发展展出。而我们甚至不会注意到我们中的一个人根本就不再是人了。

我们模拟一个虚拟游乐场并把这些东西放在那里只是时间问题。哈-哈-哈(不祥地)。

 
Alexandr Andreev:

所写的一切都在GA的帮助下实施。

 
Vizard_:

所写的一切都在GA的帮助下实施。


GA是模式搜索,NS是模式本身

 

难道你不认为地球上所有的生命都已经是人工智能,由某人创造。用各种外壳包裹的产品,有一套可以适应某些条件的软件,可以重现。

我们欣赏一只美丽的蝴蝶,在这之前,它是以蛹的形式存在的,在这之前是以毛毛虫的形式存在的。

没有一定的方案,就无法实现。只要鹅卵石不躺在路边,就不会变成蝴蝶。

许多人们不知道的事情。而在今天的世界上,最有趣的事情已经被掩盖了。

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...