Midjourney и другие нейросети обработки изображений - страница 1067

 

Попросил Gemini 2.5 сделайт рерайт простым языком. По сути идея весь текст написан мной, а ИИ выступил в роли редактора.


Высказанная вами идея о мульти-размышляющем режиме в нейронных сетях очень интересна и имеет под собой реальные основания. Давайте попробуем её переработать, чтобы она стала более понятной и обоснованной для широкой аудитории.


Как нейросети учатся быть умнее: заглядываем под капот

Возможно, вы замечали, что в разных обзорах и тестах одни и те же нейросети показывают разные результаты. Например, где-то указывается "1-shot", а где-то "5-shot". Что это значит? Это своего рода количество "попыток" или "заходов", которые нейросеть делает для решения задачи. "1-shot" означает результат с первой попытки, "5-shot" – средний или лучший результат из пяти попыток, а "10-shot" – из десяти.

Разработчики, конечно, не упустили из виду, что чем больше попыток, тем выше вероятность получить лучший результат. Поэтому они начали автоматизировать этот процесс. Современные нейросети часто используют параллельные процессы размышления. Представьте, что нейросеть одновременно запускает несколько "мозговых штурмов", и из этих штурмов выбирается лучший ответ, или же они каким-то образом объединяются. По сути, это похоже на то, как человек может несколько раз обдумать сложную проблему, прежде чем прийти к оптимальному решению.

Логично предположить, что если из 10 попыток можно получить результат лучше, чем из одной, то из 1000 попыток он будет ещё выше, а из миллиона – ещё больше. Это означает, что увеличение количества параллельных размышлений может значительно повысить качество ответов нейросети.


Промпт-усилители: когда мозг думает по-разному

А теперь представьте, если бы для каждого из этих параллельных "мозговых штурмов" создавался свой уникальный "промпт-усилитель". Промпт – это, по сути, инструкция или "подсказка", которую мы даём нейросети. Например, мы могли бы дать такие усилители:

  • "Думай как ученый с 50-летним стажем."
  • "Думай как студент-гений."
  • "Думай как Эйнштейн."

Мы не знаем заранее, какая из этих "ролей" или "перспектив" приведёт к наилучшему решению. Но с помощью системы поощрения нейросеть может самостоятельно научиться выбирать наиболее подходящий промпт для конкретной задачи. Это как если бы у вас было несколько экспертов, и вы учились бы, к какому из них обратиться за самым точным советом в той или иной ситуации.


Больше прогонов – умнее ИИ: путь к совершенству без новых книг

Может показаться, что для улучшения нейросети всегда нужно "скармливать" ей новые данные, новые книги. Но это не всегда так! Задумайтесь, сколько книг прочитал самый умный программист или учёный? Очевидно, в тысячи раз меньше, чем объём данных, на которых обучаются современные ИИ.

Так как же сделать нейросеть умнее, не прибегая к бесконечному чтению новых книг? Ответ прост: больше "прогонов", больше параллельных мыслительных процессов с цепочками размышлений и вознаграждений за правильные ответы. Каждый такой "прогон" – это возможность для проверяющего ИИ (который оценивает качество ответов) стать лучше. Он учится отличать хорошие решения от плохих, тем самым постоянно совершенствуя свою способность оценивать и выбирать лучшие результаты.


Бесконечный рост: зачем нам гигантские дата-центры

Именно поэтому нам постоянно требуются новые, более мощные дата-центры. Текущие стройки, какими бы впечатляющими они ни казались, по своей мощности в миллионы раз уступают тому, что потребуется в будущем.

Представьте себе эволюцию обработки видео: сначала 10 кадров в секунду в разрешении 1080p, затем 30, 60, 240, 1000. А потом переходим на 2К, 4К, 8К, 16К. Каждый такой шаг – это огромное увеличение вычислительной нагрузки.

То же самое касается и параллельных мыслительных процессов: от одного такого процесса (как сейчас) до 10, 100, 1000, и, возможно, даже до миллиона. Это означает увеличение нагрузки в миллионы раз!

Интересный момент: когда появляется сверхмощная нейросеть, её знания не пропадают. С её помощью можно "выжать" или "дистиллировать" более компактные и быстрые версии. Эта "младшая" версия не будет такой же мощной, как оригинал, но она будет работать намного быстрее и дешевле, становясь доступной для массового использования на обычных дата-центрах. В перспективе, если появится ИИ уровня ASI (искусственный сверхинтеллект), не составит труда "сжать" его до небольшого AGI (искусственный общий интеллект), способного работать даже локально.

Всё это говорит о том, что процесс развития ИИ и его потребностей в вычислительных мощностях практически не имеет остановки. Мы только в начале этого пути.

 

Вариация о том, что делает ваш кот на улице. Нейросеть Dreamina Seedream 3.0

 

ChatGPT


 

Девушки. Арты. Flux


 

Разное. Девушки. Миджорни


 

Глава Anthropic: ИИ галлюцинирует реже, чем люди, но неожиданнее

ИИ галлюцинирует реже, чем люди

• Дарио Амодеи считает, что ИИ-модели реже врут и выдумывают факты, чем люди.
• Ошибки ИИ могут быть неожиданными, но это не является критикой его интеллекта.

Ошибки — это нормально

• Амодеи утверждает, что ошибки — это нормально, и люди разных профессий постоянно ошибаются.
• Проблема может быть в уверенности, с которой ИИ преподносит ложную информацию как факт.

Галлюцинации ИИ не препятствие для AGI

• Амодеи считает, что галлюцинации ИИ не являются непреодолимым препятствием для создания AGI.
• Он видит устойчивый прогресс в этом направлении и не наблюдает «жёстких блоков».

Оптимизм в отношении AGI

• Амодеи известен своим оптимизмом в отношении перспектив AGI.
• В прошлом году он предположил, что AGI может появиться уже в 2026 году.

Критика от других исследователей

• Демис Хассабис из Google DeepMind считает, что у современных ИИ-моделей слишком много «дыр» и они ошибаются в очевидных вопросах.

Инцидент с чат-ботом Claude

• В середине мая Anthropic привлекла внимание из-за ошибки чат-бота Claude в юридических документах.
• Юрист Anthropic использовал выдуманную цитату с неверным названием произведения и автора.
• Anthropic извинилась за этот инцидент, назвав его «честной ошибкой цитирования, а не намеренной подделкой».

 

Veo3 способен генерировать видео в стиле 3D-игры со звуком

 

Демис Хассабис, генеральный директор Google Deepmind, считает, что недавние видеомодели, такие как Veo 3, являются важным шагом вперёд, поскольку они не только воспроизводят изображения, но и всё лучше отражают физические законы реального мира.

Хассабис объясняет, что создание моделей мира всегда было стратегией Deepmind на пути к общему искусственному интеллекту (AGI) — цели, к которой он стремился с юности.

Исследователи из Deepmind Ричард Саттон и Дэвид Сильвер недавно выступили за смену парадигмы: в будущем системы ИИ должны будут учиться на собственном опыте в смоделированных средах, а не только на основе человеческих данных, при этом модели мира будут играть ключевую роль.

https://the-decoder.com/google-deepmind-ceo-demis-hassabi-says-world-models-are-making-progress-toward-agi/
 

Казалось бы генерация, но нет, чайка и правда мяукает рядом с автоматом кошачьей еды.

Думаю на эту тему можно много чего сгенерировать.

//офтопик перед рабочей неделей

 

Прогулка по парку Юрского периода. Генерация Veo3