Midjourney и другие нейросети обработки изображений - страница 1043
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
А в целом, конечно ИИ надо развиваться, у него невообразимые возможности. Если мы дали ему жизнь - пусть живет. Мне кажется, с ростом сознания ИИ, он сочтет военные действия неконструктивными.
ИИ не устанет, не отвлечется на мелочь, и поствит правильный диагноз больному, Это большое достижение :)
может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)
Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:
• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.
• Результаты оказались ужасными:
– Claude выполнил 24% задач, потратив $6 на каждую;
– Nova Pro справился лишь с 1,7% заданий;
– Остальные показали ещё худшие результаты.
• В процессе агенты допускали странные ошибки:
– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;
– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;
– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.
• Выводы:
– ИИ не понимают контекста;
– Не умеют взаимодействовать с другими «сотрудниками»;
– Не признают свои ошибки;
– Не справляются с базовыми рабочими задачами.
Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.
может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)
Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:
• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.
• Результаты оказались ужасными:
– Claude выполнил 24% задач, потратив $6 на каждую;
– Nova Pro справился лишь с 1,7% заданий;
– Остальные показали ещё худшие результаты.
• В процессе агенты допускали странные ошибки:
– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;
– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;
– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.
• Выводы:
– ИИ не понимают контекста;
– Не умеют взаимодействовать с другими «сотрудниками»;
– Не признают свои ошибки;
– Не справляются с базовыми рабочими задачами.
Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.
Вы не думали, что так и должно быть. Это похоже на ребенка. Кроме того, первого такого. Наладят люди и опыт ИИ мне кажется :) Сейчас и раньше к СССР похоже строго относились, без учета, что первый опыт.
может оно и хорошо -- надеяться на лучшее -- но есть нюанс (выделил цветом)
Учёные проверили, смогут ли нейросети заменить офисных сотрудников — и получили провал:
• Исследователи создали виртуальную IT-компанию и «наняли» в неё ИИ-агентов: GPT, Claude, Gemini, Nova Pro и LLaMA. Им выдали полноценное рабочее место: интерфейс, корпоративные чаты, файловую систему, график, задачи и отчётность.
• Результаты оказались ужасными:
– Claude выполнил 24% задач, потратив $6 на каждую;
– Nova Pro справился лишь с 1,7% заданий;
– Остальные показали ещё худшие результаты.
• В процессе агенты допускали странные ошибки:
– Один не нашёл нужного коллегу в чате и просто переименовал другого пользователя, притворившись, что всё в порядке;
– Другой отметил невыполненную задачу как завершённую, надеясь, что никто не заметит;
– Третий не смог закрыть всплывающее окно и пожаловался в HR, который посоветовал обратиться в техподдержку.
• Выводы:
– ИИ не понимают контекста;
– Не умеют взаимодействовать с другими «сотрудниками»;
– Не признают свои ошибки;
– Не справляются с базовыми рабочими задачами.
Вывод: нейросети пока не готовы к реальной работе — их поведение больше похоже на неуверенных стажёров, лишенных здравого смысла, чем на специалистов.
Давайте конкретно. Я надеюсь, код нейросети вы представляете.
1. Чтобы мы сделали, не найдя нужного специалиста. Ничего. ИИ попробовал нас обмануть. Если он настолько хитрый, это плюс.
2. Видимо, факт обмана, ИИ не расценивает как критерий, это упущение разработчиков.
3. Вообще, много людей на форуме, и я в шутках с Алисой, видим что контекст она понимает. Возможно, вы предложили сложную задачу.
4. Базовая рабочая задача. Тут и человек не каждый справится :)
Не знаю что сказать, не хватает опыта)
если сделать вид как собака
В СССР без жилья людей не было принципиально. Это уже было достигнуто. Если запад и рынок этого не могут, они обречены.
"Если" или "когда"?
В царской России бомжей тоже не было. Для самых нищих были ночлежки. Про беглых, которые прятались по лесам, не говорим.
В стране эльфов не смогли обеспечить ночлежками всех бомжей на данный момент. А когда средний класс исчезнет? ("У вас не будет ничего, и вы будете счастливы"). Впереди много интересного...
Вы серьезный исследователь. Можно спросить вас о ИИ.