Midjourney и другие нейросети обработки изображений - страница 1184

 

Мультимодальная модель Lyria 3: Новые горизонты ИИ-музыки

//Текст Gemini 3.1

Представлена Lyria 3 — передовая генеративная модель, способная создавать высококачественную музыку не только из текстовых запросов, но и на основе визуального контекста.

Ключевые возможности нейросети:

  • Мультимодальность: Модель умеет преобразовывать в музыку текст (text-to-music), изображения (image-to-music) и даже видеоролики (video-to-music).

  • Профессиональное звучание: Lyria 3 генерирует 30-секундные треки со студийным качеством аранжировки.

  • Вокал и тексты: ИИ способен автоматически писать тексты песен и исполнять их с помощью реалистичных голосов на нескольких языках.

  • Точечный контроль: Пользователям доступно детальное управление темпом, жанром и эмоциональным настроением композиции.

Безопасность и прозрачность: Для защиты цифрового пространства и авторских прав все созданные треки автоматически помечаются невидимыми водяными знаками SynthID. Это позволяет надежно идентифицировать аудио, сгенерированное искусственным интеллектом.

//мои тесты

 

Эпоха заучивания окончена: Вышел ARC-AGI-3 — самый суровый тест для искусственного интеллекта


//Текст и обложка Gemini 3.1

Сегодня, 25 марта 2026 года, команда ARC Prize Foundation под руководством Франсуа Шолле представила третью версию бенчмарка ARC-AGI-3. Релиз уже называют «холодным душем» для индустрии: если предыдущие тесты модели щелкали как орешки, то новые интерактивные среды обнажили реальный уровень автономности современного ИИ.

В чем проблема старых тестов?

До сегодняшнего дня бенчмарки ARC (Abstraction and Reasoning Corpus) представляли собой статические сетки. Модели предлагалось посмотреть на примеры «до и после» и дорисовать финальную картинку.

Однако аудит показал неприятную правду: современные нейросети не столько «рассуждали», сколько использовали свою гигантскую память. Имея в обучающей выборке триллионы токенов, ИИ просто находил похожие паттерны. Это была имитация логики, а не сама логика.

Что изменилось в ARC-AGI-3

Разработчики полностью пересмотрели архитектуру испытания. Теперь это не картинки, а 135 уникальных интерактивных сред (мини-игр).

Ключевые новшества:

  1. Интерактивность: Модель помещается в игровое поле 64×64. Чтобы победить, ей нужно совершать действия, наблюдать за реакцией среды и корректировать стратегию.

  2. Нулевой контекст: Модели не объясняют правила. Промпт предельно лаконичен: «Вы в игре. Ваша цель — победить». ИИ должен сам понять физику этого микромира.

  3. Метрика RHAE (Reasoning and Hitting Average Efficiency): Теперь важно не просто решение, а его кратчайший путь. Если человек проходит уровень за 10 шагов, а модель за 100 «тычков» — её балл будет близок к нулю.

Важно: Люди проходят эти тесты со стопроцентным результатом, тратя в среднем около 7–8 минут на одну среду. Для человека правила интуитивно понятны из здравого смысла.


Первые результаты: Провал «титанов»

Первые независимые тесты топовых моделей на ARC-AGI-3 показали шокирующие цифры. На закрытом наборе данных, который не попадал в обучение, результаты распределились так:

Модель Результат (чистый запуск)
Gemini 3.1 Pro Preview 0,2%
GPT-5.4 (High) 0,3%
Opus 4.6 (Max) 0,2%
Grok-4.20 0,0%

Результаты показывают, что «грубая сила» — увеличение количества параметров и данных — больше не работает там, где требуется адаптация в реальном времени.

https://arcprize.org/leaderboard

Почему это важно для индустрии?

ARC-AGI-3 официально зафиксировал: мы всё еще невероятно далеки от AGI (общего искусственного интеллекта). Современные LLM — это великолепные статистические калькуляторы, но они теряются, как только сталкиваются с задачей, которой не было в интернете.

Этот бенчмарк станет новым золотым стандартом для разработчиков, которые пытаются научить нейросети строить «модели мира», а не просто предсказывать следующее слово.

 

OpenAI закрывает Sora: приложение для генерации видео не прожило и полугода. Это правда?


//текст и обложка Grok 4.20

Да, это правда. 24 марта 2026 года команда Sora официально объявила о закрытии своего приложения. «Мы говорим Sora „прощай“. Всем, кто творил с Sora, делился работами и строил вокруг него сообщество: спасибо. То, что вы создали, имело значение, и мы понимаем, что эта новость разочарует», — написали они в своём аккаунте в X (бывший Twitter).


Что такое Sora и как всё начиналось

Sora — это нейросеть OpenAI для генерации видео по текстовому описанию (text-to-video). Изначально модель представили в феврале 2024 года как исследовательский проект. Полноценное отдельное приложение (Sora app) с социальной лентой для создания и распространения коротких реалистичных роликов запустили осенью 2025 года — примерно полгода назад. Пользователи могли генерировать гиперреалистичные видео, делиться ими в фидe, а в декабре 2025-го OpenAI даже заключила сделку с Disney на $1 млрд: компания получила доступ к генерации видео с персонажами Marvel, Pixar и Star Wars.

Приложение быстро набрало вирусность, но уже через несколько месяцев интерес начал угасать.

Почему закрывают

OpenAI прямо не назвала одну главную причину, но в заявлениях и комментариях СМИ прослеживается несколько факторов:

  • Высокая стоимость вычислений. Генерация видео требует огромных ресурсов GPU, а спрос на мощности в компании растёт.
  • Падение интереса пользователей. После первого хайпа активность резко снизилась.
  • Смена приоритетов. Команда Sora переходит на исследования «моделирования мира» (world simulation) для робототехники и других корпоративных продуктов. OpenAI хочет сосредоточиться на более узком круге задач.

Вслед за объявлением Disney расторгла миллиардную сделку, заявив, что «понимает изменение приоритетов». Закрывают не только мобильное приложение и сайт Sora.com, но и API для разработчиков. Точные сроки пока не названы, но обещают дать информацию, как сохранить уже созданные видео.

Реакция сообщества

В соцсетях и русскоязычных СМИ мнения разделились:

  • Разочарование и грусть. Многие пользователи пишут «NOOOOO», «Sora 2 была такой хорошей, почему?» и «Что делать с нашими видео?». Некоторые называют это первым крупным «убийством» продукта OpenAI и теряют доверие: «Как теперь верить их релизам, если через полгода всё закрывают?»
  • Радость и сарказм. Часть сообщества рада: «Хорошего понемножку», «Слишком зацензурено», «Наконец-то остановили поток нейрослопа» (AI slop). Многие жаловались на жёсткие ограничения: даже невинные запросы могли попасть под NSFW-фильтры. «Не будет скучать», «RIP BOZO», «Поработали — и хватит».
  • Аналитика. Эксперты отмечают, что рынок генерации видео стал очень конкурентным (Kling, Veo, Runway и другие). Sora просто не выдержала по цене и удобству. Некоторые видят в этом признак «сдувания пузыря ИИ» или, наоборот, здравое перераспределение ресурсов.

В русскоязычном сегменте преобладает спокойный тон: «Ну и ладно, освободят мощности», «Главное, чтобы 4o не трогали».

Что дальше

Пока неизвестно, полностью ли уберут модель Sora или интегрируют её в ChatGPT и другие продукты. Исследовательская команда продолжит работу, но уже в другом направлении. Для пользователей это означает, что эпоха «социальной сети коротких ИИ-видео» от OpenAI закончилась, не успев по-настоящему начаться.

Sora стала ярким примером того, как быстро меняются приоритеты в мире искусственного интеллекта: от вирусного хайпа к жёсткой оптимизации затрат. Будем следить за обновлениями — OpenAI обещала рассказать детали «скоро».

 
Эти новости — как важнейший порог, ознаменовавший факт взросления общего человеческого сознания относительно ИИ и общего отношения к нему. 

Но в защиту ИИ скажу: чаще всего люди не следят за философией и логикой своих интерпретаций, в результате чего вольные заявления воспринимаются, как истина.

LLM не провалили тест. 
LLM просто не натасканы на подобные задачи. 

Провалить — это когда натасканный чатбот не решает однородную обучениям задачу. 

Ещё полгода и они будут трескать эти новые бенчмарки, как орешки.



Самое смешное, что реальные сложные задачи мы тут в ветке давным давно сформулировали. Как пример - индикатор ЗигЗаг. Ни один чатбот не может его модифицировать без логических ошибок, даже Claude Opus.
Я когда-то описывал задачу, там нет тысяч строк, там нет ООП, там нет супер-пупер сложных преподвыподвернутых схем.
Там тупо - задача на пространственное и абстрактное мышление. 

Просто попробуйте попросить чатбота написать ЗигЗаг по методу Ганна или Ларри Уильямса. Они все сядут в лужу. И не надо супер-пупер бенчмарков)))

Раньше я ругал их за это, а сейчас лоялен в том смысле, что задачи такой не стояло: натаскивать на подобные задачи.
 
Ivan Butko #:
Ещё полгода и они будут трескать эти новые бенчмарки, как орешки.
Вот тогда это уже будет не LLM-попугай, а "живой" интеллект, способный понимать генеративную задачу на ходу. Думаю, пройдя этот тест, ИИ-автопилот и робототехника сделают шаг вперёд.
 

Spud от OpenAI: новая мощная модель искусственного интеллекта готова к запуску, а компания сворачивает видеогенератор Sora


//текст и обложка Grok 4.20. Spud переводится как картофелина.

Вчера, 24 марта 2026 года, стало известно о важном прорыве в разработке искусственного интеллекта. По данным авторитетного издания The Information, компания OpenAI завершила предварительное обучение своей следующей крупной модели под кодовым названием Spud. Генеральный директор Сэм Альтман сообщил сотрудникам в внутреннем письме: «Очень сильная модель появится уже через несколько недель, и вся команда считает, что она может существенно ускорить всю экономику в целом».

Это не просто очередное обновление. Spud позиционируется как фундаментальная модель, которая должна помочь в создании умных агентов — систем, способных самостоятельно выполнять сложные задачи. Подробностей о возможностях пока мало: известно лишь, что она будет работать быстрее и эффективнее предыдущих версий. Некоторые специалисты предполагают, что она может стать основой для «суперприложения» на компьютере, где объединятся чат, инструменты для программирования и браузер.

Чтобы освободить вычислительные мощности для Spud, OpenAI приняла непростое решение: полностью сворачивает мобильное приложение и API видеогенератора Sora, а также отказывается от планов встроить генерацию видео прямо в ChatGPT. Sora, который всего несколько месяцев назад возглавлял чарты App Store и принёс партнёрство с Disney на миллиард долларов, теперь уходит в историю. Исследования в области видео продолжатся, но только в долгосрочной перспективе — для симуляции мира в робототехнике.

Одновременно Сэм Альтман меняет свои обязанности. Он отказывается от прямого контроля над командами безопасности и защиты, передавая их главному научному руководителю Марку Чену и президенту компании. Сам Альтман сосредоточится на главных стратегических задачах: привлечении огромных инвестиций (компания уже ведёт переговоры о 10 миллиардах долларов при оценке в 730 миллиардов), обеспечении поставок чипов и строительстве дата-центров небывалого масштаба. Продуктовое подразделение даже переименовали в «Развёртывание искусственного общего интеллекта» (AGI Deployment) — это чётко показывает, куда движется компания.

Что говорят эксперты и пользователи? Сообщество в сети отреагировало живо. Многие называют новость «масштабным прорывом» и «ставкой на будущее». Один из популярных комментаторов написал: «Spud может действительно ускорить экономику — это не просто слова Альтмана». Другие радуются фокусу на инфраструктуре: «Наконец-то компания перестала распыляться и сосредоточилась на главном — вычислительных мощностях и агентах для бизнеса».

Есть и критика. Часть пользователей огорчена закрытием Sora: «Жаль, что такой крутой инструмент ушёл так быстро». Некоторые видят в этом рискованный шаг: «Отказ от миллиардного контракта с Disney ради ещё не выпущенной модели — это либо гениальный ход, либо большая ставка». В целом настроение позитивное: все понимают, что OpenAI усиливает позиции в жёсткой конкуренции с другими разработчиками искусственного интеллекта.

Официальных публичных комментариев от компании пока нет — вся информация пришла из внутреннего письма Альтмана. Модель ещё пройдёт этапы доработки, тестирования и выравнивания, прежде чем появится для пользователей.

Что дальше? Если всё пойдёт по плану, уже через несколько недель мы увидим первую версию Spud. Это может стать настоящим прорывом не только для OpenAI, но и для всей отрасли. Следите за обновлениями — искусственный интеллект развивается быстрее, чем мы ожидаем!

 

The Dor Brothers «Apex» Мы только что сняли фильм за 200 000 000 долларов с помощью ИИ за один день. Да, это на 100% ИИ


 

В интернете есть почти всё. А если чего-то нет — в «интернете-ИИ» оно появляется за секунды

//текст Grok 4.20

Друзья, компания DeepMind (подразделение Google) представила настоящий прорыв: браузер-генератор сайтов, который работает на новой модели искусственного интеллекта Gemini 3.1 Flash-Lite. Это не просто демонстрация — это инструмент, который меняет само понятие «веб-страница».

Как это устроено?

Вы пишете обычный запрос на русском: «Сделай страницу в стиле старого ВКонтакте для семейного альбома» или «Создай подробное руководство по уходу за орхидеями с фото и советами». Через пару секунд перед вами появляется полностью рабочая страница: с кнопками, поиском, формами и даже реальными данными. Каждый клик или новый поиск мгновенно рождает следующую страницу. Никаких готовых шаблонов, никакой загрузки файлов — всё создаётся на лету.

Модель Gemini 3.1 Flash-Lite специально сделали лёгкой и очень быстрой. Она выдаёт первый ответ в 2,5 раза быстрее предыдущей версии и обрабатывает больше 360 токенов в секунду. Попробовать можно бесплатно прямо в Google AI Studio — ссылка на демо-приложение уже открыта.

Что умеет этот инструмент?

  • Мгновенно собирает интернет-магазин с сотнями товаров и корзиной.
  • Строит удобные панели с данными (например, прогноз погоды или личный кабинет).
  • Создаёт целые интерактивные руководства и симуляции.

Цена тоже радует: всего 0,25 доллара за миллион входных токенов. Это делает инструмент доступным даже для частого использования.

Для чего вообще такой функционал?

В обычном интернете хранится всё, что люди когда-либо выложили. А если нужного нет? Тогда на помощь приходит «интернет-ИИ» — он не ищет, а создаёт с нуля. Именно поэтому такой генератор так важен:

  • Закрывает «белые пятна» — вы получаете страницу, которой раньше просто не существовало.
  • Делает контент под конкретного человека: персональные инструкции, семейные сайты, личные дашборды.
  • Ускоряет работу в десятки раз: вместо недель ожидания дизайнера и программиста — готовый прототип за секунды.
  • Открывает дверь в новый живой интернет, где страницы рождаются под ваш запрос, а не лежат мёртвым грузом годами.

Конечно, пока результаты иногда получаются неидеальными и требуют уточнений, но для быстрого тестирования идей и демонстраций это уже настоящий подарок.

DeepMind снова показывает, как искусственный интеллект ускоряет творчество и разработку. Если вы занимаетесь сайтами, дизайном или просто любите пробовать новое — загляните в демо.

А что думаете вы: готов ли интернет стать полностью генерируемым? Пишите в комментариях! 🚀

 
Alexandr Saprykin #:

The Dor Brothers «Apex» Мы только что сняли фильм за 200 000 000 долларов с помощью ИИ за один день. Да, это на 100% ИИ

Электромобиль со звуком двигателя сгорания это мощно. В любом случае ИИ-фильмы могут быть успешными, если не говорить, что созданы с помощью ИИ.
 

Новая Suno 5.5

Может петь Вашим голосом