Большие проекты. - страница 7

 
Vizard_:

Пора бы уже, что нибудь и закодить из "ИИ")))

Да, давайте попробуем.))

 
Реter Konow:

2. Почитайте про тест Алана Тьюринга. Современный ИИ не готов даже к тому, чтобы его достойно провалить.


Да? Совсем неготов походу

Тест Тьюринга пройден (на детском уровне сложности)
Тест Тьюринга пройден (на детском уровне сложности)
  • 2008.06.14
  • habrahabr.ru
Сделала это программа, которая убедила людей, что является 13-летним мальчиком из украинской Одессы. Согласно условиям теста Тьюринга, он считается пройденным, если программе удастся убедить в своей человечности хотя бы 30% судей в процессе 5-минутного текстового общения. Программе, разработанной Владимиром Веселовым из России и украинцем...
 

https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D1%81%D1%82_%D0%A2%D1%8C%D1%8E%D1%80%D0%B8%D0%BD%D0%B3%D0%B0

Почитайте стандартную интерпретацию того, каким должен быть этот тест. Это совсем не то, во что его превратили на этих конкурсах.

30 процентов судей и 5- минутное общение на одну тему, - это НЕ тест Алана Тьюринга, а его извращенная версия, созданная специально для конкурса, а не для тестирования настоящего ИИ.

Еще бы сравнивали с 3-ех летним ребенком. Процент прохождения теста был бы еще выше.



Так что "походу" совсем не готов.)))


И почему именно 30, а не 70 процентов судей? Что еще за бред?))

Тест Тьюринга — Википедия
Тест Тьюринга — Википедия
  • ru.wikipedia.org
Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»...
 
Реter Konow:

Да, давайте попробуем.))

Мне не надо, у меня из последних "калькуляторов с памятью" почти все есть.
Просто намекнул, что писать можно много и долго, но воз то и ныне там)))

 
Vizard_:

Мне не надо, у меня из последних "калькуляторов с памятью" почти все есть.
Просто намекнул, что писать можно много и долго, но воз то и ныне там)))

Не понял что вы имеете ввиду.
 

хм... пугает другое, дело в том что все эти само организующие сети кохенна и прочим разновидностям - всем этим задумкам уже лет 40 и этот ИИ который как бы прошел этот тест (а он бы его прошел если бы потенты использовались по большим фразам с обучением в какойнибуть соц сети.) - да и не сложная она должна быть, просто раньше компьютерных мощей не было и доступа к то кому количеству переписки.... пугает другое, что за 40 лет нету новых идей кроме обычных шаблонов которые налагают друг на друга и на их основании сторят новые шаблоны.

Может просто мы не в курсе что сейчас действительно там изучают и используют.


мое предположение:

умный ИИ должен "мыслить образно" т.е. все представлять в виде суб обьектов чтоли.... и даже так програмировать, в качестве поощрения могут использоваться некие заданные морали - к примеру мораль желание общение (социальная), мораль первозданности (т.к. все новое человеку в диковеньку) и прочее и прочее.... Т.е. это должны быть чистые само-организирубщиеся сети - которые лишь получают некие указания от заранее заложенных моралей. (мораль социума подраздел скука - если мало новых переменных то идет штраф - это заставит двигаться - и двигаться так чтобы было много чего нового для изучения)... Правда для этого строить робота никого ненадо - т.к. все можно смоделировать. Причем чтобы штрафы от морали должны быть сильно строгими - вплоть до очищение всех шаблонов или спонтанного очищения. По факту должОн получиться очень человеческий бот (это как из фильма чужие три - можно было сразу догадаться что она не человек а робот, она слишком человечина для человека). 

По факту если такого робота закрыть в сильно ограниченном пространстве - то мораль социума.скука со временем - обнулить всю память... равносильно смерти - конечно перед смертью наш ИИ будет старать двигаться...  

При этом если посадить такого бота к людям то возможно он выучит язык, а если к таким же ботам - то есть вероятность что они придумают некий свой язык. Конечно для этого надо нечто типо рандомного пародирования - представлении себя на месте обьекта, можно тоже отнести к морали социума.

Также мораль привязанность, ну и заранее забить приоритеты типо максимальная привязанность к "человеку", далее к тому обьекту с которым больше общаеться и прочее и прочее.

В подразделе соцума можно задать что то типо в приоритете общение с объектом "человек", в общем можно кучу человеческих ценностей навносить заранее.

Но никак не правила типо не убей, подчиняйся людям, и самосохранения - это ваще бред какой-то. Представим на минуту картину в которой врываться терорист растравливает всех и вся - и потом просит такого бота перезарядить ему автомат - по логике трех правил он должен перезарядить автомат. А вот по принцыпам морали - он должен грохнуть нахрен этого терориста по призыву морали привязанность к людям дабы он не убил еще и потом скончаться от того что получит жесткий штраф от этой же марали вплоть до полного сноса системы, хотя по факту робота должно торкнуть только от вида мертвых тел (со стороны будет казаться что на фоне эмоций это его так - ну в общем человечный получиться).

Причем мораль первозданности может запретить развитие свыше определенного уровня, а мораль социума обещение поставить в явном сверх приоритете - будет болтать чуть ли не 24 часа в сутки. И они даже друг с другом могут болтать - пародируя моменты поведения людей "дурачиться".

В общем будет не робот а ходячая мораль. С возможно ребяческим характером (будет любить дурачиться, шутить)

Причем со временем будет понятна верная цепочка для правильного обучение и это цепочка будет нечто вроде генома.

И что то мне кажется что будущее за подобной штуковиной.... 

Причем эта штуковина может и не понимать свое я - но от человека будет ну просто не отличить. Правда такая штука может решить написать свое ИИ и вот что уже оно там напишет неизвестно.

Самое забавное что такой бот скорее всего будет учиться весьма медленно - и что самое удивительное по логике его также придется учить языку речи, потом учить читать и даже учить программировать.

Возоможно однажды на выставке какой-нибудь робото техники - одним из посетителей и будет такой андроид который радуется (получает награду по системе НС) от социума (общения с людьми) и будет смотреть с недоумением на всяческих других "примитивных" роботов выставленных как последние разработки. А мы этого даже и не заметим что один из нас уже и не человек вовсе.

Осталось дело за малым - смоделировать виртуальную площадку и поселить там таких штук. Ха-ХА-ХА (Зловеще)

 
Alexandr Andreev:

Все написанное реализуется с помощь ГА.

 
Vizard_:

Все написанное реализуется с помощь ГА.


ГА это поиск шаблона, НС - это сами шаблоны

 

А вам не кажется, что всё живое на земле уже есть ИИ, созданный кем то. Продукт облаченный в  разнообразные оболочки с набором программного обеспечения, умеющего подстраиваться под определенные условия и умеющие размножаться.

Мы любуемся красивой бабочкой, а до этого она существовала в виде куколки, а еще раньше гусеницей, а еще ...

Без определенной программы это не возможно достичь. Сколько камушек не будет лежать у обочины он не станет бабочкой.

Много чего люди не знают. А в современном мире самое интересное уже умалчивают и скрывают.

 
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
Facebook AI Invents Language That Humans Can't Understand: System Shut Down Before It Evolves Into Skynet
  • Tech Times
  • www.techtimes.com
Facebook shut down one of its artificial intelligence systems after AI agents started communicating with one another in a language that they invented. The incident evokes images of the rise of Skynet in the iconic "Terminator" series.  ( ) Facebook was forced to shut down one of its artificial intelligence systems after researchers discovered...
Причина обращения: