Midjourney и другие нейросети обработки изображений - страница 701

 
Maxim Dmitrievsky #:

пасаны, вы реально издеваетесь? :)

Опечатка. Это черепаха Торчилла.

 

Реter Konow  #:

Логика ... работает только когда все связи известны и закономерности подтверждены на практике.

Логика работает даже когда у бобра закрыты глаза

Реter Konow  #:
Порочна и логика


Занавес

Приехали

О каком интеллекте вообще вещать, когда тут интеллект... отрицают ;)

[Удален]  
Ivan Butko #:

Логика работает даже когда у бобра закрыты глаза


Занавес

Приехали

О каком интеллекте вообще вещать, когда тут интеллект... отрицают ;)

Логика не экстраполируется на новые данные, когда появляются новые вводные. Даже если подключить ассоциации. Нужен очередной эксперимент. И инструменты проверки гипотез.

Например, логично ожидать от оптимизаторщиков адекватность, но эксперимент даёт обратный результат :)

У меня были тайные фантазии, что ЛЛМ выучит универсальные категории из огромного кол-ва данных и сможет прогнозировать. Сойдётся к каким-то универсалиям, которые позволяют прогнозировать в разных сферах. Но нет.
 
Maxim Dmitrievsky #:
Логика не экстраполируется на новые данные, когда появляются новые вводные. Даже если подключить ассоциации. Нужен очередной эксперимент. И инструменты проверки гипотез.

Здесь либо теплоё с кислым, либо крайне специфический контекст. 

В части общения Чата и его потенциальных размышлений, он может опираться исключительно и только на логику, поскольку любой вывод исходит из утверждений. 

Не наоборот. 

Когда я прошу написать чат что-то, а он говорит "да, я напишу", а сам не пишет - в нём нет логики. Иначе бы он либо переспросил контекст, определения и прочее, что не согласуется с его знаниями. Всё ровно и точно также, как происходит человеческое общение, иного быть не может в принципе. Знание либо опирается на логику, либо постулирует. 



Если имеет ввиду контекст логики системы, то тут речь про другое. Логика системы и логика в принципе - это разные понятия. 

И утверждение "логика порочна" такое же безграмотное, как утверждать, что куринное яйцо у тебя в руках появилось раньше, чем курица, из поторой ты его достал. 

Как в общем контексте, так и в контексте системы. Логика системы для конкретных данных как работала, так и работает, она железна. Если она не заточена под новые данные — то она НЕ виновата в этом, и следовательно, не порочна. 




Эти ОскарУайльдовские афоризмы как раз и портят науку, а точнее — молодые умы. Звучит красиво, а на деле — очередной бред. 

[Удален]  
Ivan Butko #:

Здесь либо теплоё с кислым, либо крайне специфический контекст. 

В части общения Чата и его потенциальных размышлений, он может опираться исключительно и только на логику, поскольку любой вывод исходит из утверждений. 

Не наоборот. 

Когда я прошу написать чат что-то, а он говорит "да, я напишу", а сам не пишет - в нём нет логики. Иначе бы он либо переспросил контекст, определения и прочее, что не согласуется с его знаниями. Всё ровно и точно также, как происходит человеческое общение, иного быть не может в принципе. Знание либо опирается на логику, либо постулирует. 



Если имеет ввиду контекст логики системы, то тут речь про другое. Логика системы и логика в принципе - это разные понятия. 

И утверждение "логика порочна" такое же безграмотное, как утверждать, что куринное яйцо у тебя в руках появилось раньше, чем курица, из поторой ты его достал. 

Как в общем контексте, так и в контексте системы. Логика системы для конкретных данных как работала, так и работает, она железна. Если она не заточена под новые данные — то она НЕ виновата в этом, и следовательно, не порочна. 




Эти ОскарУайльдовские афоризмы как раз и портят науку, а точнее — молодые умы. Звучит красиво, а на деле — очередной бред. 

Он не может опираться на логику, потому что опирается на структуру обучающего текста :) и выдает ответ наиболее вероятными последовательностями слов. Какой логический модуль ты предлагаешь для самопроверки?  Если в обучающих данных нет ответов для новой задачи. Он может сделать предположение, но как он его проверит. На деле всегда мимо получается пока что.
[Удален]  
Я это не с потолка беру, а иногда экспернментирую, когда пишу код. Именно по части когда придумываю новую ТС, допустим. Я сам придумал и она работает. Дальше я попытался вывести ЛЛМ на то, чтобы он написал подобное или приблизился к этому. Не получается. И когда я ему уже фрагменты готовой ТС скармливаю, он все равно теряется. Нет таких знаний в базе.
[Удален]  
То есть получается не пришей п.. рукав. Поэтому я не могу называть это интеллектом.  А хочется увидеть чудо. Считаю, что я тупее 80% людей. Значит он должен делать лучше меня, по их тестам. Он пытается, скрипит нейронами, отвечает на возражения... и продолжает делать фигню.
 
Maxim Dmitrievsky #:
Он не может опираться на логику, потому что опирается на структуру обучающего текста :) и выдает ответ наиболее вероятными последовательностями слов. Какой логический модуль ты предлагаешь для самопроверки?  Если в обучающих данных нет ответов для новой задачи. Он может сделать предположение, но как он его проверит. На деле всегда мимо получается пока что.


Это коммерческая тайна. 

Добавлю в своего будущего ИИ-кореша. 



Но если серьёзно, то ты говоришь про существующую архитектуру. 

Но никто не запрещает пересматривать подходы. 



Если утверждаешь, что иного подхода в принципе быть не может — сообщи об этом с аргументом. 

Просто все "невозможности" в этой ветке так или иначе постятся автором ветке через несколько месяцев после публикации подобных утверждений. 



Что же касается моих представлений о модуле: каждое слово должно проверяться, каждая буква и цифра. Создаётся предварительная огромная база семантики. То есть, вероятностей смыслов. Затем, если участник повторяет вопрос и жалуется, что Чат не ответил по существу, Чат предлагает уточнить что имеется ввиду. Затем происходит корректировка в семантической базе, и пропущенное слово со всех сторон рассматривается в контексте всех слов запроса. То есть, у него некий приоритет среди всех остальных смыслов. 

В таком случае, когда я прошу написать код и говорю, что он неполный, Чат должен уточнить, что я имею ввиду. И дальше снова корректировать свою семантическую базу. 

Это всё мои представления, я не претендую ни на что, не агритесь. 


Когда я прошу написать стих и прошу рифму в каждой строчке, чат обязан выставить приоритет смысла слову "рифма", затем "каждой строчке", затем проверить каждую строчку на наличие рифмы, проверить не давал ли я объяснение рифмы, затем сверить со своей базой, сама сверка - это тоже комплекс работы. 

В результате ответ будет имитировать мыслительный процесс с кучей энергозатрат, и это подразумевает неэффективность на начальном этапе. 

[Удален]  
Ivan Butko #:


Это коммерческая тайна. 

Добавлю в своего будущего ИИ-кореша. 



Но если серьёзно, то ты говоришь про существующую архитектуру. 

Но никто не запрещает пересматривать подходы. 



Если утверждаешь, что иного подхода в принципе быть не может — сообщи об этом с аргументом. 

Просто все "невозможности" в этой ветке так или иначе постятся автором ветке через несколько месяцев после публикации подобных утверждений. 



Что же касается моих представлений о модуле: каждое слово должно проверяться, каждая буква и цифра. Создаётся предварительная огромная база семантики. То есть, вероятностей смыслов. Затем, если участник повторяет вопрос и жалуется, что Чат не ответил по существу, Чат предлагает уточнить что имеется ввиду. Затем происходит корректировка в семантической базе, и пропущенное слово со всех сторон рассматривается в контексте всех слов запроса. То есть, у него некий приоритет среди всех остальных смыслов. 

В таком случае, когда я прошу написать код и говорю, что он неполный, Чат должен уточнить, что я имею ввиду. И дальше снова корректировать свою семантическую базу. 

Это всё мои представления, я не претендую ни на что, не агритесь. 


Когда я прошу написать стих и прошу рифму в каждой строчке, чат обязан выставить приоритет смысла слову "рифма", затем "каждой строчке", затем проверить каждую строчку на наличие рифмы, проверить не давал ли я объяснение рифмы, затем сверить со своей базой, сама сверка - это тоже комплекс работы. 

В результате ответ будет имитировать мыслительный процесс с кучей энергозатрат, и это подразумевает неэффективность на начальном этапе. 

Про текущую архитектуру самое очевидное - что она статичная. Как обучили так и есть. Новых решений в ней не появляется, все захардкожено в весах. Она просто не способна перестраивать связи, чтобы появлялись новые решения. И именно на программном, а скорее аппаратном уровне, это должно быть реализовано. Тогда появится гибкость. Ей просто не дали свободу мыслить. Если реализуют - ИИ начнет мыслить и выдавать новые решения. Пусть это будут конченые решения, но Котя бы что-то :)
[Удален]  
Дальше про обратную связь. Ей необязательна связь с нашим обыденным миром. Это может быть связь с любой открытой стстемой, например квантовым или меняющимся магнитным полем. С химической средой. После этого пишется интерпретатор с человечьего языка на ее язык, для взаимопонимания. ЛЛМ нужно "оживить" любым способом, не важно каким. Чтобы это непосредственно влияло на изменение связей.