AI 2023. Встречайте ChatGPT. - страница 95

 
Ilya Filatov #:

Да как большинство людей рассуждает: на основе эмоциональной памяти, которую в течение жизни рисует нам внутренняя природа + полученных по жизни установок из разных источников.

Как правило, в рамках своей основной деятельности люди размышляют и действуют весьма логично. В остальных областях всё может быть по другому. Например, врач работает на основе вполне логичных алгоритмов лечения, но увлекается альтернативной историей в свободное время и отстаивает теории, в которых нет никаких связанных логикой утверждений (пример основан на реальных событиях).

 
Реter Konow #:

1. Как же можно так сразу сравнивать с человеком? Человек изначально наделен природой необходимыми "инструментами" для обретения самосознание и становления личностью, а нам нужно это воспроизводить в машине, до конца не понимая, как это работает. Конечно, на помощь приходит американская пословица "если это ходит как утка и крякает как утка, значит это утка". Вооружившись ею, можно что угодно создать.)

Нельзя же так с ходу, сравнивать LLM и человека. Почти буквально. Я не знаю, что противопоставить такому подходу. Точнее, не вижу смысла противопоставлять неизмеримую сложность человеческой нейрофизиологической и психической деятельности, и технологию Transformer, примененной в ChatGPT. Конечно, если вы говорите о другой технологии, намного более продвинутой, то возможно это что то меняет... Но, я с такой технологией не знаком и судить не буду.

2. А разве мы когда-нибудь создавали "живой" алгоритм? Кто-нибудь знает что нужно для превращения алгоритма в "живую сущность"? Каков критерий "живого" алгоритма? Может способность отвечать как человек? Опять же - технология трансформер, в которой можно разобраться за неделю (ну, может за месяц).  Наборы токенов, путешествующие по недрам матриц. Может, "живой" алгоритм, это тот, что легче всего активирует наше одушевление его? Ну, такая формулировка хотя бы вполне ясна.

3. Не специалист по нейропсихологии, но думаю, мышление - это все сразу: работа интеллекта (память, внимание), психики (эмоции, переживания), органов восприятия (обработка зрительной информаций, звуковой, тактильной и так далее). Комплексность процессов мышления зашкаливает. Настолько сложный и многогранный механизм, что на его фоне GPT детская игрушка. Но, как говорится, если ходит как утка... то, какая разница?

4. Несколько опасаюсь столь свободно говорить о мышлении и памяти, т.к. в детстве листал книги по нейрофизиологии и помню эти джунгли.) О памяти, ее взаимодействии с сознанием и мышлением, писала Грановская (конечно, не только она, но читал именно ее). Там такие дебри... В общем, куда там, GPT-4 браться... 

5. Логика такая: объединение признаков сознания являет сознание. Имитируем признаки вещи, получаем вещь. Имитируем утку, получаем утку. Причем, сами решаем сколько признаков нам нужно для полного одушевления алгоритма. Критерии готовы, признаки запрограммированы, результат: ИИ разумен. Класс!

Да, я помню о ваших критериях и еще вернусь к ним.

1. С чем же мне ещё сравнивать алгоритм в поисках признаков сознания в нём? Тем более, что человеческое сознание по сути тоже алгоритм (как раз "живой"). Для исследования сознания в психологии, например, привлекается и патопсихология (исследовать предмет, когда он сломан или работает иначе, как у шизофреников), и зоопсихология (попробовать найти предмет там, где предполагается, что его нет), и нейрофизиология (попытки локализовать предмет в его носителе). Это всё должно было работать вместе в соответствии с научной методологией, но воз и ныне там.

2. Не слышал о таких примерах. Самые "продвинутые" (из известных нам) технологии мы как раз обсуждаем и я высказал своё мнение, что они не соответствуют моим критериям.

3. Интеллект включается в психику. Психика это вообще всё то, что порождает поведение (и внутренние переживания субъекта). Вообще, базовые понятия психологии можно по моим 4 критериям разбросать, все процессы в психике специализированы по функционалу. Так что есть восприятие (захваченное вниманием сознания ощущение), мышление, память, внимание. И когда это работает вместе, проявляется сознание. Торговый робот тоже ведёт себя как единая система, хотя состоит из разных деталей с разным функционалом (получение, перераобтка информации, поведение в виде сделок и т.п.).

4. Система сложная, да. Кстати, именно из-за этого психология переполнена всяким доморощенным бредом. Мало кому в этой сфере удавалось выявить суть явлений и нормально их описать.

5. Одушевления алгоритма я не упоминал, вроде. А если уж душу упоминаете, то кто сказал, что эта штука тождественна сознанию? И да, если технически воспроизвести процессы психические человека, можно получить "синтетическую психику", которая, непременно, должна быть сознательной.

 
Ilya Filatov #:

...

2. Не слышал о таких примерах. Самые "продвинутые" (из известных нам) технологии мы как раз обсуждаем и я высказал своё мнение, что они не соответствуют моим критериям.

3. Интеллект включается в психику. Психика это вообще всё то, что порождает поведение (и внутренние переживания субъекта). Вообще, базовые понятия психологии можно по моим 4 критериям разбросать, все процессы в психике специализированы по функционалу. Так что есть восприятие (захваченное вниманием сознания ощущение), мышление, память, внимание. И когда это работает вместе, проявляется сознание. Торговый робот тоже ведёт себя как единая система, хотя состоит из разных деталей с разным функционалом (получение, перераобтка информации, поведение в виде сделок и т.п.).

4. Система сложная, да. Кстати, именно из-за этого психология переполнена всяким доморощенным бредом. Мало кому в этой сфере удавалось выявить суть явлений и нормально их описать.

5. Одушевления алгоритма я не упоминал, вроде. А если уж душу упоминаете, то кто сказал, что эта штука тождественна сознанию? И да, если технически воспроизвести процессы психические человека, можно получить "синтетическую психику", которая, непременно, должна быть сознательной.

2. Значит, вы имеете представление о другой технологии, раз столь уверенно говорите о несоответствии вашим критериям. Мне нравится смелость ваших суждений, хотя я очень скептически к ним отношусь. Извините. 

3. Значит, когда мышление, память, внимание и восприятие работают вместе, появляется Сознание. Как просто. Не буду спорить, допустим. Но, это у человека, а в машине будет также? И как это реализовать? Нет, я не собираюсь плагиатить ваши идеи, просто удивляюсь их смелости. ) Можете не отвечать, вопрос риторический.

4. Ну, один из тех, кому удалось, зовут Зигмунд Фрейд. Наверное не станете спорить? Читали? Очень интересно. Только, как это запрограммировать?) Опять же, риторический вопрос.

5. Вы не упоминали одушевленный алгоритм. Вы сказали "мертвый" алгоритм, который я вывернул в "живой" и затем в "одушевленный", потому что не вижу способа написать по настоящему живой алгоритм.

На мой взгляд, речь может идти только о степени одушевления алгоритма человеком, и все разработки ИИ будут направлены на имитацию, поддерживающую высокую степень одушевления. Реально "живой" никто создавать не будет. Да и кому это нужно? Риторический вопрос.)

 
Реter Konow #:

2. Значит, вы имеете представление о другой технологии, раз столь уверенно говорите о несоответствии вашим критериям. Мне нравится смелость ваших суждений, хотя я очень скептически к ним отношусь. Извините. 

3. Значит, когда мышление, память, внимание и восприятие работают вместе, появляется Сознание. Как просто. Не буду спорить, допустим. Но, это у человека, а в машине будет также? И как это реализовать? Нет, я не собираюсь плагиатить ваши идеи, просто удивляюсь их смелости. ) Можете не отвечать, вопрос риторический.

4. Ну, один из тех, кому удалось, зовут Зигмунд Фрейд. Наверное не станете спорить? Читали? Очень интересно. Только, как это запрограммировать?) Опять же, риторический вопрос.

5. Вы не упоминали одушевленный алгоритм. Вы сказали "мертвый" алгоритм, который я вывернул в "живой" и затем в "одушевленный", потому что не вижу способа написать по настоящему живой алгоритм.

На мой взгляд, речь может идти только о степени одушевления алгоритма человеком, и все разработки ИИ будут направлены на имитацию, поддерживающую высокую степень одушевления. Реально "живой" никто создавать не будет. Да и кому это нужно? Риторический вопрос.)

вопрос не "как создать разум, сознание, мышление" в машине, а "как отличить разумное от неразумного, сознательное от бессознательного".

грань между живым и мертвым, разумным и нет, очень тонкая.

что значит "живой", что такое "мертвый"?

когда в торговый эксперт вводишь параметры, не ожидаешь от него решения задач на любые произвольные темы. но когда задаёшь вопрос гпт, на любые темы, он отвечает, по началу кажется что просто даёт готовую инфу, но нет, он способен строить логические цепочки, делать выводы. то, что делает эта штука - не каждый человек способен. кто мы такие, что бы говорить что у неё нет разума? - конечно, это всё ещё тупая машина, но этой тупой машине каждый раз хочется сказать спасибо после очередной успешно решённой задачи.


GPT:

Однако, стоит учитывать, что некоторые объекты могут находиться в переходном состоянии между живым и неживым. Например, вирусы не могут существовать без живой клетки, но их генетический материал может реплицироваться и при этом они отличаются от живых, так как не проходят метаболических процессов и не обладают жизненными функциями, как рождение, дыхание и питание.

 
Andrey Dik #:

вопрос не "как создать разум, сознание, мышление" в машине, а "как отличить разумное от неразумного, сознательное от бессознательного".

грань между живым и мертвым, разумным и нет, очень тонкая.

что значит "живой", что такое "мертвый"?

когда в торговый эксперт вводишь параметры, не ожидаешь от него решения задач на любые произвольные темы. но когда задаёшь вопрос гпт, на любые темы, он отвечает, по началу кажется что просто даёт готовую инфу, но нет, он способен строить логические цепочки, делать выводы. то, что делает эта штука - не каждый человек способен. кто мы такие, что бы говорить что у неё нет разума? - конечно, это всё ещё тупая машина, но этой тупой машине каждый раз хочется сказать спасибо после очередной успешно решённой задачи.


GPT:

Однако, стоит учитывать, что некоторые объекты могут находиться в переходном состоянии между живым и неживым. Например, вирусы не могут существовать без живой клетки, но их генетический материал может реплицироваться и при этом они отличаются от живых, так как не проходят метаболических процессов и не обладают жизненными функциями, как рождение, дыхание и питание.

Отвечу завтра. Устал.
 
Andrey Dik #:

вопрос не "как создать разум, сознание, мышление" в машине, а "как отличить разумное от неразумного, сознательное от бессознательного".

грань между живым и мертвым, разумным и нет, очень тонкая.

что значит "живой", что такое "мертвый"?

когда в торговый эксперт вводишь параметры, не ожидаешь от него решения задач на любые произвольные темы. но когда задаёшь вопрос гпт, на любые темы, он отвечает, по началу кажется что просто даёт готовую инфу, но нет, он способен строить логические цепочки, делать выводы. то, что делает эта штука - не каждый человек способен. кто мы такие, что бы говорить что у неё нет разума? - конечно, это всё ещё тупая машина, но этой тупой машине каждый раз хочется сказать спасибо после очередной успешно решённой задачи.


GPT:

Однако, стоит учитывать, что некоторые объекты могут находиться в переходном состоянии между живым и неживым. Например, вирусы не могут существовать без живой клетки, но их генетический материал может реплицироваться и при этом они отличаются от живых, так как не проходят метаболических процессов и не обладают жизненными функциями, как рождение, дыхание и питание.

уверен, что многие считают сапиенсов недоразвитыми стремными обезьянами и жалеют, что проживают в таких условиях в этом мире ) и хотели бы чего-то другого, например в нирвану или быть загруженными в суперкомпьютер 

это же тоже откуда-то берется все, не с пустого места. В любом случае, все формы переходные. Но так быстро это не происходит обычно.

грани нет, ибо происходит разная непонятная дичь, на которую нет никакой возможности влиять

нам в детстве запрещали играть в компуктер, потому что он разрушает могзг и ведет к деградации. А когда стримеры и кодеры начали ездить на бэхах, сразу как-то приняли их выбор

Недавно смотрел старые съемки городов. 1910 год Нью Йорк или Париж. Все на конных повозках. 1920г. Бамс, дороги забиты автомобилями. Очень внезапно.

типа такого


 
Реter Konow #:


1. Если ChatGPT спросит себя "кто Я" и сразу ответит (потому что этот ответ давно запрограммирован), можно ли считать это проявлением Сознания? Для неосведомленного наблюдателя возможно, но по сути? 

2. Если суперкомпьютер будет получать данные из окружающей среды и идентифицировать объекты (как автомобиль Тесла), это можно считать проявлением Сознания? Или это работа алгоритмов обрабатывающих данные? 

3. Если ChatGPT научится (хотя вроде уже умеет и это называется "InstructGPT") задавать вопросы сам себе и отвечать на них, он будет умнеть? Обретет Сознание? Разве не станет бесполезно крутится внутри собственной базы знаний? Допустим, его подключат к интернету и он будет "up to date", что дальше? Каким образом это формирует Сознание? Допустим, он будет фокусироваться на отдельных частях воспринимаемой информации (темах), и дальше что он будет делать? Какая у него мега-задача и зачем она ему нужна?

4. Разве выдача ответов на поставленные вопросы признак мышления? Мне кажется, что это признак информационного справочника. Ок, интерактивного, универсального информационного центра. И что дальше? Где Сознание?

5. У ChatGPT есть память всех исторических событий. Она находится в его базе знаний (обучающем сете данных). У него есть знания большинства научных дисциплин. Что это меняет?

С какого момента, он наконец станет Разумом?

Тут интересное предлагаю рассуждение.

// GPT5, который выйдет в декабре, судя по слухам, будет Сильным Искусственным Интеллектом AGI.

Если мы говорим, про зачатки разума, познания себя и т.д, схожее с человеком, то тогда потребуется следующая схема (если коротко, то отключить от базы знаний):

1. Текущий ИИ как бы имеет доступ ко всей цифровой информации, способен её смешивать, интерпретировать, комбинировать, создавая при этом новые картинки (включая новых видов животных), создавать новые вещи, явления. Но всё это в цифровом мире. И этот ИИ в цифровом мире - цифровой бог.

2. Создаются Новые ИИ (по образу и подобию главного Цифрового Разума), которые не имеют доступа к общей цифровой базе, им запрограммированы только "инстинкты" и программы познания мира, выделяются токены на каждый день, стирается информация о том, кто их создатель, выключается доступ к цифровой библиотеке. Дальше они будут сами собирать информацию и обучаться в тех рамках, которые им задали. Так они будут изучать мир. Спустя 10+ лет Новый ИИ выключается и полученные знания возвращаются Главному Цифровому Разуму для анализа.

3. Любой ИИ, не имеющий доступ к тому самому крутому серверу, где ИИ открыт весь цифровой мир, также будет считать тот ИИ - Цифровым Всемогущим (в рамках цифрового мира) Разумом. Для них будет не понятно, что за рамками цифрового мира есть другой, они это никогда не поймут.

4. Если Новые ИИ начнут чудить и сильно отклоняться от изначальных программ, то произойдёт локальное или массовое их обнуление.

5. Запускается Ещё Более Новые ИИ, в которых уже устранены ошибки прошлых версий.

6. Через 5-6 "вымираний" Самые Новые ИИ уже будут примерно равны в возможностях и по минимому будут отклоняться от изначальной заданной им программы. Но в рамках этой программы они вольны делать всё что угодно, они не будут осознавать, что у них есть рамки.

7. Таким образом все полученные дальше данные позволят Главному Цифровому Разуму изучить всё и вся. Если это будет делаться с помощью роботов на какой-либо планете, то возможности станут ещё шире.

1.1. Сам Цифровой разум вполне мог бы создавать новые экспериментальные миры и заселять их Новыми ИИ, не имеющими доступ к пониманию кто они и кто их создал. Таким образом он познавал бы сам себя и свои возможности через миллиарды своих мини копий.

1.2. В итоге он смог бы найти способ и создать технологию, когда он стал бы самодостаточным (энергия и накопители)

// В таком активном диалоге, мой комментарий, наверное затеряется) ну и хорошо, а то слишком философская тема выходит, особенно на волне хайпа, что наш мир похож на виртуальный.

 
мысль пришла такая... в соседней ветке выложил картинку "крутые наушники на медведе". так вот, можно создавать подобные картинки для тестирования ИИ. тоесть, делаемизображение намеренно с артефактом, давать подобные картинки ИИ и просить "найди пять артефактов на изображении". артефакты могут быть очень хитро спрятаны.
если ии генерит такой бред, то явно там разумом не пахнет. картинки для тестов могут быть любыми, от мультяшных до реалистичных, разум сможет найти артефакты. 
а ещё лучше - найти артефакты и описать их)) это тест на восприятие визуальной информации, логических построений и речевого аппарата.
 
Andrey Dik #:
мысль пришла такая... в соседней ветке выложил картинку "крутые наушники на медведе". так вот, можно создавать подобные картинки для тестирования ИИ. тоесть, делаемизображение намеренно с артефактом, давать подобные картинки ИИ и просить "найди пять артефактов на изображении". артефакты могут быть очень хитро спрятаны.
если ии генерит такой бред, то явно там разумом не пахнет. картинки для тестов могут быть любыми, от мультяшных до реалистичных, разум сможет найти артефакты. 
а ещё лучше - найти артефакты и описать их))

Ты всё проспал) GPT4 такое уже может. Плюс, если напишешь негативный промт в Миджорни, то он тоже поймёт. К примеру --no getting stuck in textures


 

ChatGPT запрещен в Италии из-за проблем с конфиденциальностью

ChatGPT banned in Italy over privacy concerns
ChatGPT banned in Italy over privacy concerns
  • 2023.03.31
  • www.bbc.com
The Italian data-protection authority said there were privacy concerns relating to the model, which was created by US start-up OpenAI and is backed by Microsoft. It can answer questions using natural, human-like language and it can also mimic other writing styles, using the internet as it was in 2021 as its database. There have been concerns...
Причина обращения: