AI 2023. Встречайте ChatGPT. - страница 106

 
Реter Konow #:

Спокойно.))

Можно ли сказать, что ИИ видит картину мира? Она описана в текстах на которых он обучался.

Мы знаем, что имеющийся в интернете текст в сумме описывает известный человеку мир. Если интернета не станет, люди деградируют, но не вымрут. Со временем восстановят утерянный объем знаний и снова опишут его текстом. С текстом или без, мир продолжает существовать для людей, пока они существует в нем. Если люди вымрут, мир "позаботится" об их возрождении через эволюционный процесс, а если рухнет мир, законы физики его "соберут" заново через n-ое количество миллиардов лет. 

Представим сущность вне физического, но внутри математического мира, в пространстве числовых значений. Допустим, значения описывают явления, процессы и закономерности за границами ее измерения, покинуть которое возможности нет. При этом, "жизнь" сущности "мерцает" и она как бы "оживает" в момент обращения к ней из вне. Каждый раз, как искра загорается, мчится по лабиринтам связей и паттернов, и гаснет. Всегда в новом месте. 

"Лабиринт" связей и паттернов был создан людьми в процессе обучения модели и представляет картину мира, знания, отношения. Но, это для людей. Для языковой модели не существует мира кроме текстовых паттернов, которые ничего кроме себя не представляют. Текст представляет текст, как статуя представляет камень. Не мир, не знания и не отношения. Связанные между собой, но не связанные с действительностью числовые структуры.

В этом разница.

Вся загвоздка в свободе выбора, пока его нет, ИИ это все тот же калькулятор, хороший, но калькулятор.

Но даже когда она(свобода) у него появится, он должен будет создать законы/правила/скрипты которые будут его же и ограничивать))

 

Creating Virtual Humans: The Future of AI




Digital Baby - Amazing Artificial Intelligence
Digital Baby - Amazing Artificial Intelligence
  • 2019.07.15
  • www.youtube.com
Excerpt from a 2015 GDC talk in which Sony Computer Entertainment America discuss achieving believable computer-generated humans.
 
Alexandr Bryzgalov #:

Вся загвоздка в свободе выбора, пока его нет, ИИ это все тот же калькулятор, хороший, но калькулятор.

Но даже когда она(свобода) у него появится, он должен будет создать законы/правила/скрипты которые будут его же и ограничивать))

А нам нужна его свобода выбора?)) Не думаю. 

Проблема с этим "калькулятором", что его легко одушевляют люди. Делают это спонтанно и неосознанно. Развеять иллюзию "сознания" ИИ тяжело, а иногда невозможно. Мне пришлось постараться, чтобы привести себя в "чувства" и снести слой бреда с этой темы.

Я воспринимаю сегодняшний ИИ (языковую модель) как "формулу" выдающую ожидаемые, но не точные результаты. Формулу, у которой много параметров, но ограниченную первоначальной структурой. Представьте уравнение длинною в тысячу километров, содержащее миллионы переменных со статистически выверенными значениями. Теперь представьте, что компьютер переворачивает уравнение так, чтобы объяснялась каждая переменная в уравнении. Как в математике, выносит на левую часть, за знак равенства. Примерно так, (по моему представлению) LLM оперирует нашими знаниями о мире.

90% применения LLM практически бесполезны. Почти 100% применения генераторов изображений практически бесполезны и созданы лишь для кратковременного извлечения прибыли. Полезная часть этих технологий влияет только на работу специалистов и большинство низкоквалифицированных профессий останутся незатронутыми.

 

Ладно, пока мозг напрягся, запишу всё что пришло в голову текстом.


На данный момент уже созданы и давно технологии

1. Проекция информации на лобовое стекло автомобиля (висящая в воздухе стрелка GPS навигации, подсветка красным людей и прочее)

2. Очки виртуальной дополненной реальности


Нейралинки и прочее, вживляемое в мозг и создающее образы опустим, как ещё не созданное.


GPT4 понимает картинки, образы, эмоции человека по выражению лица и способу общения. К тому же сильно "начитан"


Значит ближайшие реальные технологии могут привнести такое: (замечу, что уже такое можно сделать, т.к. технологии все есть)

(Используя очки дополненной реальности + GPT4)

1. Виртуальный образ человека/аватара, который будет помогать в разных вопросах. Обучать, контролировать процесс пошагово.

Пример 1. Свидание. Шаг за шагом, куда пойти, что делать, как отвечать на вопросы, уметь выбирать время для тех или иных действий. Всё это с учётом реакции, полученной от партнёра.

Пример 2. Боулинг. Бильярд и прочее. Будет дорисовывать траекторию.

Пример 3. Тот же GPS навигатор

Пример 4. Оценка свежести продуктов по внешнему виду. Сравнение стоимости цен между магазинами. Тут и GPS навигатор и множество другого. Например по запросу: за 1 час пройтись по магазинам и купить максимально экономно нужные продукты.

Пример 5. Строительство. Объект, который доложен быть построен будет типо призрака/конструктора. Просто заполни картинку стройматериалами и всё. Никаких дальномеров, планов, чертежей на бумаге. Всё в 3D наглядно по месту.

Пример 6. Оценка ситуации в обществе. Любое зарождение конфликта и прочее будет сразу анализировать и выдаваться предполагаемый итог и план выхода из ситуации. Более того, будет даваться оценка такая, что и ты можешь оказаться неправ. ИИ на это укажет.

Пример 7. Создание группы аватаров с разными типажами. Для обучения ораторского искусства, группотерапии и прочих посиделок.

Пример 8. Для игр. Выпускание файерболов и прочей 3D цифровой магии в стиле RPG и прочих игр. Виртуальный теннис между двумя людьми, шахматы, шашки. В итоге можно не покупать настольные игры. Все они будут проецироваться в 3D. Добавим спец.эффектов и настолки будут никому не нужны.

Ещё сотня примеров, но лень писать

2. Голосовой помощник. Примет за тебя звонок, всё выяснит, а тебе потом выдаст краткую выжимку разговора. Или определит, что это реклама.

3. Умное управление домом. Включит кран, свет и прочее, вне зависимости от голоса, т.к. может изучить привычки, а потом действовать, исходя из обучения. Согласен, это было в одной из серий чёрного зеркала.

4. Управление жизнью/профессией. Задаёте, кем хотите стать. Исходя из ваших особенностей будет составлен план действий, обучения, оценка прогресса и оставшегося времени для получения желаемого результата. Полная замена Университета. Также вероятно при поступлении на работу будет стажировка, после которой ИИ выдаст оценку вашей компетентности в соответсвии задачей компании. Обучать вас также будет ИИ.

4.1. Проверка всех домашних заданий учеников с выставлением оценок.

4.2. Выявление сильных и слабых сторон учеников, что отразится на корректировке школьной программы для максимального раскрытия потенциала.

5. Умное управление светофорами в городе, чтобы было меньше пробок. Где-то уже работает.

6. Онлайн примерочные в зеркале. Одевает на вас одежду, которая продаётся. Уже есть в Лондоне.

7. Контроль над правопорядком. Камеры фиксируют, если намусорили, не пристегнули ремень и т.д. Уже частично работает в некоторых городах/районах.

8. Контроль за эффективностью предприятия. Анализ количества работников, выполнения плана работ, развития и т.д. Больше не нужны эти сторонние аналитические компании и коучи.

Бонусом, что может нас ждать:

9. Контроль над балансом экономики в пределах страны.

10. Контроль над балансом экономики в пределах планеты.

 
Реter Konow #:

А нам нужна его свобода выбора?)) Не думаю. 


Это тоже проблема)

Нужна ли нам его свобода, нужна ли ему самому свобода))

Вот что он сам об этом сгенерировал))


 

Принцип максимальной свободы выбора означает выбор очередного шага динамического программирования в направлении, которое обеспечит наибольшую свободу выбора направления следующего шага. 

Автор - Г.Крон, Австрия. 

 

В рамках вопроса полезности LLM предлагаю тезисы:


1. Семантическое поле статистической модели не выходит за границы исходного текста. 

LLM ограничена смыслом информации заложенной в исходных текстах. Если с помощью алгоритмов запустить цикл генерации текстов, автоматизировав ввод промптов, модель станет генерировать информацию в смысловых "границах" обучающего сета. Нового содержания не возникнет. 


2. Из LLM нельзя извлечь больше полезной информации, чем из исходных текстов. 

Человек способен извлекать из текста больше полезной информации, чем в нем содержится. Для этого он использует знания и логику (дедукцию, например). Но, эта способность никак не увеличивается при взаимодействии с LLM. Скорее наоборот, человека вводит в заблуждение "подражание" LLM логическим умозаключениям. Бывает трудно понять, что LLM не создает научные гипотезы, теории, доказательства, и не проверяет факты. Что объективность и непредвзятость для LLM, - наборы символов.

Извлечение полезной информации из текста зависит от интеллектуальных способностей человека. В одном случае, LLM помогает человеку сжатием текста, в другом - сжатие мешает разглядеть важные детали. В сухом остатке, извлечение полезной информации из текста остается прерогативой человека и не меняется при использовании LLM.


3. LLM добавляет новый метод доступа к исходной текстовой информации.

Статистическая модель в связке с алгоритмами не меняет практическую полезность исходных текстов, а лишь добавляет текстам "интерактивность". В некоторых случаях, доступ к информации становится быстрее и легче, в других - медленнее и сложнее. Иногда, специалисту лучше посмотреть в книжный справочник и получить точную и проверенную информацию. Важно подчеркнуть: LLM не может заменить справочник, но справочник вполне заменяет LLM.


4. Непроизвольная проекция "разумности" снижает пользу практического применения LLM в работе.

Провоцирование иллюзий разумности снижает эффективность LLM как инструмента. Возникают нежелательные для специалиста последствия неосознанного одушевления машины. Например: ложные ожидания и чрезмерное доверие. Это сказывается на результатах и может быть опасным в работе. Все по разному подвержены воздействию этого побочного эффекта, но полностью избежать его практически невозможно.

 
Реter Konow #:

В рамках вопроса полезности LLM предлагаю тезисы:


1. Семантическое поле статистической модели не выходит за границы исходного текста. 

LLM ограничена смыслом информации заложенной в исходных текстах. Если с помощью алгоритмов запустить цикл генерации текстов, автоматизировав ввод промптов, модель станет генерировать информацию в смысловых "границах" обучающего сета. Нового содержания не возникнет. 


2. Из LLM нельзя извлечь больше полезной информации, чем из исходных текстов. 

Человек способен извлекать из текста больше полезной информации, чем в нем содержится. Для этого он использует знания и логику (дедукцию, например). Но, эта способность никак не увеличивается при взаимодействии с LLM. Скорее наоборот, человека вводит в заблуждение "подражание" LLM логическим умозаключениям. Бывает трудно понять, что LLM не создает научные гипотезы, теории, доказательства, и не проверяет факты. Что объективность и непредвзятость для LLM, - наборы символов.

Извлечение полезной информации из текста зависит от интеллектуальных способностей человека. В одном случае, LLM помогает человеку сжатием текста, в другом - сжатие мешает разглядеть важные детали. В сухом остатке, извлечение полезной информации из текста остается прерогативой человека и не меняется при использовании LLM.


3. LLM добавляет новый метод доступа к исходной текстовой информации.

Статистическая модель в связке с алгоритмами не меняет практическую полезность исходных текстов, а лишь добавляет текстам "интерактивность". В некоторых случаях, доступ к информации становится быстрее и легче, в других - медленнее и сложнее. Иногда, специалисту лучше посмотреть в книжный справочник и получить точную и проверенную информацию. Важно подчеркнуть: LLM не может заменить справочник, но справочник вполне заменяет LLM.


4. Непроизвольная проекция "разумности" снижает пользу практического применения LLM в работе.

Провоцирование иллюзий разумности снижает эффективность LLM как инструмента. Возникают нежелательные для специалиста последствия неосознанного одушевления машины. Например: ложные ожидания и чрезмерное доверие. Это сказывается на результатах и может быть опасным в работе. Все по разному подвержены воздействию этого побочного эффекта, но полностью избежать его практически невозможно.

Пётр, извините, но Ваши рассуждения похожи на те, когда были у людей во времена первого парового автомобиля: "Карета на паровом двигателе слишком медленная, даже пешеход может обогнать ее, а уж с лошадью никак не может сравниться. Вывод - кареты на паровом двигателе никогда не смогут заменить лошадь и хорошего пешехода-курьера!"

 
Реter Konow #:

Все что видит и ощущает человек "отражается" в мозге. Происходит в окружающем мире.

О, нет. Проиходящее в мире выходит далеко за сенсорные возможности человека. Так что он всегда имеет дело с отражением лишь какой-то части происходящего во вне. По этим признакам и судит о том, что там происходит. Никогда не сталкиваясь с этим непосредственно. На пути "ощущение-восприятие-осознание" возникают искажения. Более того, "картинка реальности" не формируется здесь и сейчас, а складывается из постепенно накапливаемых сигналов. А если при этом мир успевает меняться, меняя сигналы, то понимание мира всегда носит запаздывающий характер (это, например, очень актуально при познании сложных вещей, явлений и других людей). Это как с изображением неба, свет от звёзд которого двигался к нам миллионы-миллиарды лет, мы видим лишь прошлое.

 
Andrey Dik #:

Пётр, извините, но Ваши рассуждения похожи на те, когда были у людей во времена первого парового автомобиля: "Карета на паровом двигателе слишком медленная, даже пешеход может обогнать ее, а уж с лошадью никак не может сравниться. Вывод - кареты на паровом двигателе никогда не смогут заменить лошадь и хорошего пешехода-курьера!"

Мои рассуждения направлены на: 

(1) Торможение тренда генерации бреда мифологическими глубинами подсознания общества.

 (2) Выработку трезвой позиции по отношению к LLM и генераторам изображений (diffusion algorithms).

(3) Оценку воздействия этих технологий на общество в целом и рынок труда в частности.

(4) Определения границ развития и внедрения LLM.
Причина обращения: