Midjourney и другие нейросети обработки изображений - страница 1043

 
prosvetlenniy_mudrec #:

А в целом, конечно ИИ надо развиваться, у него невообразимые возможности. Если мы дали ему жизнь - пусть живет. Мне кажется, с ростом сознания ИИ, он сочтет военные действия неконструктивными.

ИИ не устанет, не отвлечется на мелочь, и поствит правильный диагноз больному, Это большое достижение :)

может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)


Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:

• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.

• Результаты оказались ужасными:

– Claude выполнил 24% задач, потратив $6 на каждую;

– Nova Pro справился лишь с 1,7% заданий;

– Остальные показали ещё худшие результаты.

• В процессе агенты допускали странные ошибки:

– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;

– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;

– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.

• Выводы:

– ИИ не понимают контекста;

– Не умеют взаимодействовать с другими «сотрудниками»;

– Не признают свои ошибки;

– Не справляются с базовыми рабочими задачами.

Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.

 
Andrey F. Zelinsky #:

может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)


Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:

• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.

• Результаты оказались ужасными:

– Claude выполнил 24% задач, потратив $6 на каждую;

– Nova Pro справился лишь с 1,7% заданий;

– Остальные показали ещё худшие результаты.

• В процессе агенты допускали странные ошибки:

– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;

– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;

– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.

• Выводы:

– ИИ не понимают контекста;

– Не умеют взаимодействовать с другими «сотрудниками»;

– Не признают свои ошибки;

– Не справляются с базовыми рабочими задачами.

Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.

Вы не думали, что так и должно быть. Это похоже на ребенка. Кроме того, первого такого. Наладят люди и опыт ИИ мне кажется :) Сейчас и раньше к СССР похоже строго относились, без учета, что первый опыт.

 
Andrey F. Zelinsky #:

может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)


Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:

• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.

• Результаты оказались ужасными:

– Claude выполнил 24% задач, потратив $6 на каждую;

– Nova Pro справился лишь с 1,7% заданий;

– Остальные показали ещё худшие результаты.

• В процессе агенты допускали странные ошибки:

– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;

– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;

– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.

• Выводы:

– ИИ не понимают контекста;

– Не умеют взаимодействовать с другими «сотрудниками»;

– Не признают свои ошибки;

– Не справляются с базовыми рабочими задачами.

Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.

Давайте конкретно. Я надеюсь, код нейросети вы представляете.

1. Чтобы мы сделали, не найдя нужного специалиста. Ничего. ИИ попробовал нас обмануть. Если он настолько хитрый, это плюс.

2. Видимо, факт обмана, ИИ не расценивает как критерий, это упущение разработчиков.

3. Вообще, много людей на форуме, и я в шутках с Алисой, видим что контекст она понимает. Возможно, вы предложили сложную задачу.

4. Базовая рабочая задача. Тут и человек не каждый справится :)

 
Maxim Dmitrievsky #:

Не знаю что сказать, не хватает опыта)

если сделать вид как собака

 
Вы серьезный исследователь. Можно спросить вас о ИИ.
 
prosvetlenniy_mudrec #:
В СССР без жилья людей не было принципиально. Это уже было достигнуто. Если запад и рынок этого не могут, они обречены.

"Если" или "когда"?

В царской России бомжей тоже не было. Для самых нищих были ночлежки. Про беглых, которые прятались по лесам, не говорим.

В стране эльфов не смогли обеспечить ночлежками всех бомжей на данный момент. А когда средний класс исчезнет? ("У вас не будет ничего, и вы будете счастливы"). Впереди много интересного...

 
Ваш вопрос сам дает ответ. Конечно, все будут уовлетворены, когда у самого слабого будет теплый ночлег. Это критерий, мы же люди.
 
prosvetlenniy_mudrec #:
Вы серьезный исследователь. Можно спросить вас о ИИ.
Серьёзный исследователь, это когда можно ИИ спросить о нём.
 
Человек, изучал вопрос. Истратил врекмя. я отношусь к нему с уважениям. Он, исследователь.
 
https://biz.cnews.ru/news/top/2025-05-13_razvorot_na_180pervaya_it-kompaniya
Стартап заменивший людей ИИ возвращает людей)