Midjourney и другие нейросети обработки изображений - страница 1122

 
Vitaliy Kuznetsov #:
Gemini 2.5 Flash Image (nano banana) вышла.

Стала доступна в чате


Мой тест


P.S. Есть куда расти. Качество режет (имеет предел). Поиграться пойдёт.

 

Китай запускает программу «AI Plus»: ставка на тотальную интеграцию искусственного интеллекта

//самари от GPT5. Основано на статье https://www.ft.com/content/64caeab8-a326-4626-98fb-e1bf665827d3

Правительство Китая представило амбициозный план «AI Plus», который ставит целью глубокую интеграцию технологий искусственного интеллекта во все ключевые сферы экономики и общества.

Основные ориентиры:

  • 2027 год — более 70% ключевых отраслей (промышленность, здравоохранение, финансы, госуправление, потребительская электроника) будут использовать ИИ в повседневных процессах.

  • 2030 год — показатель должен превысить 90%, а Китай рассчитывает стать мировым лидером по внедрению ИИ.

  • 2035 год — массовое распространение автономных автомобилей, промышленных и сервисных роботов, «умных» ПК, смартфонов и носимых устройств.

Инфраструктура для «AI Plus»

Для реализации стратегии необходима собственная технологическая база:

  • Китайские производители чипов планируют утроить выпуск AI-ускорителей уже в 2026 году, что обеспечит независимость от американских решений.

  • Строятся три новых завода, один из которых запустится в 2025-м, ещё два — в 2026-м.

  • SMIC удваивает мощности по 7-нанометровому процессу, Huawei и Cambricon продвигают новые поколения чипов.

  • Формируется единый стандарт FP8, поддерживаемый DeepSeek и Huawei.

  • Производитель памяти CXMT приблизился к мировым лидерам по скорости DRAM.

Почему это важно

  • Технологический суверенитет: план минимизирует зависимость от Nvidia и других западных компаний.

  • Комплексное развитие: от полупроводников и памяти до софта и вычислительных кластеров.

  • Глобальные последствия: успешная реализация «AI Plus» укрепит позиции Китая как ключевого игрока в мировой гонке ИИ.


📌 Итог: «AI Plus» — это не просто программа по развитию ИИ, а долгосрочная стратегия технологического и промышленного переустройства, в которой чипы и вычислительные мощности играют фундаментальную роль.

 
Vitaliy Kuznetsov #:

Стала доступна в чате

По сравнению с Qwen3-235B при улучшении старых фотографий даже рядом не стоит. Да и то через VPN.

 

YandexGPT 5.1 Pro: новая версия нейросети Яндекса превзошла GPT-4.1


//самари от GPT5 по новости https://ya.ru/ai/gpt/

28 августа 2025 года Яндекс представил обновлённую модель YandexGPT 5.1 Pro.
Она стала точнее, полезнее и заметно реже допускает «галлюцинации», а по ряду параметров уже обходит GPT-4.1 от OpenAI.

Что изменилось

  • Качество ответов: в слепом тестировании новая модель выигрывает у предшественника в 58 % случаев и у GPT-4.1 — в 56 %.

  • Меньше ошибок: количество выдуманных фактов сокращено почти вдвое.

  • Сильные стороны: улучшены навыки переписывания текста, работы с фактами и решение математических задач.

Цифры и бенчмарки

  • WikiFacts RU: рост с 64 % до 74 % — на уровне GPT-4o.

  • Rewrite RU: 92 % против 89 % у прошлой версии и 91 % у GPT-4o.

  • MATH: 86 % (выше, чем у GPT-4o — 80 %).

  • В других тестах модель также держится на уровне мировых лидеров.

Где доступна

  • Для пользователей — прямо в Алисе.

  • Для бизнеса и разработчиков — через Yandex Cloud AI Studio API и SDK.

По словам руководителя разработки Александра Боймеля, модель стала «отвечать полнее и полезнее, при этом заметно меньше галлюцинировать».


Итог

С выходом YandexGPT 5.1 Pro Яндекс сделал шаг к созданию конкурентоспособной глобальной LLM. Для пользователей это — более точные ответы в Алисе, для компаний — мощный инструмент автоматизации, а для разработчиков — опенсорс-база для экспериментов и собственных решений.

 

OpenAI представила gpt-realtime: голосовой ИИ, который понимает эмоции и говорит как человек


// самари GPT5 https://openai.com/index/introducing-gpt-realtime/

28 августа 2025 г. — OpenAI объявила о запуске Realtime API и новой модели gpt-realtime, которая меняет представление о голосовых ассистентах.

Что нового

  • Живое общение без задержек. gpt-realtime отвечает сразу, не перебивая собеседника, потому что работает напрямую с голосом, без перевода в текст и обратно.

  • Эмоции и интонации. Модель умеет улавливать настроение человека — смех, грусть, иронию — и сама передаёт эмоции в речи.

  • Переключение языков на ходу. Ассистент может свободно переходить с одного языка на другой прямо во время разговора.

  • Анализ изображений. Теперь можно показывать картинку и обсуждать её с ИИ.

  • Доступ к данным. Через протокол MCP модель подключается к базам знаний, документации или CRM и подгружает нужную информацию прямо во время диалога, не создавая пауз.

Как это работает на практике

На презентации gpt-realtime читала стихотворение с разными интонациями, переключаясь между языками, а затем сыграла роль вежливого оператора техподдержки в разговоре с настойчивым клиентом.

Зачем это нужно

Теперь голосовые ассистенты становятся не просто быстрыми, а по-настоящему естественными: они понимают эмоции, умеют вести спокойный разговор даже в сложных ситуациях и работают с разными источниками информации.

 

Попросил Gemini придумать сет из 4-х картинок, что может сделать ИИ.

После этого на моё удивление создал подряд 4-ре картинки. Первый раз такое вижу.


Киберпанк в дикой природе. Gemini 2.5 Flash


 

🚀 Grok-code-fast-1: новая сверхбыстрая модель для программистов


//обложка Gemini, текст самари GPT5 - https://x.ai/news/grok-code-fast-1

Компания xAI Илона Маска представила свежую модель для кодинга — grok-code-fast-1. Главный акцент здесь на скорости и удобстве: модель умеет практически мгновенно отвечать на запросы разработчиков и при этом стоит дешевле конкурентов.


⚡ Что в ней особенного?

  • Скорость: до 92 токенов в секунду и отклик всего ~67 миллисекунд. То есть модель реагирует быстрее, чем многие IDE-расширения.

  • Контекст: понимает проекты размером до 256 тысяч токенов. Это значит, что можно работать сразу с большой кодовой базой, не ломая её на куски.

  • Цена: от $0.20 за миллион входных токенов. Для сравнения: у конкурентов зачастую в разы дороже. Плюс — кэширование промтов (с повтором платите почти в 10 раз меньше).


📊 Бенчмарки

На тесте SWE-Bench-Verified модель показала 70.8 % — это уровень топ-моделей для реальных задач программирования.
В Reddit пишут, что grok-code-fast-1 «быстрая, дешёвая и код пишет достойно» — и даже сравнивают её с Claude Sonnet 4.


🛠 Где попробовать?

Партнёрство xAI с крупными инструментами разработчиков делает доступ простым: модель уже доступна через GitHub Copilot, Cursor, Cline, Roo Code и другие среды. Более того — сейчас можно потестить бесплатно.


🔮 Что дальше?

xAI обещает обновления каждые несколько дней, а в планах — мультимодальность и параллельные вызовы инструментов. Если компания удержит темп, то Grok вполне может потеснить GitHub Copilot и Tabnine на поле массового AI-кодинга.


👉 В итоге: grok-code-fast-1 — это про скорость, экономичность и реальную практичность. И если раньше многие сомневались в «ИИ-программистах», то теперь, похоже, начинается новый виток гонки: кто быстрее и дешевле поможет разработчикам писать код.

 

Alibaba расширил линейку продуктов открытого кода Wan 2.2 по генерации видео. На этот раз на входе картинка + аудио.

Модель Wan-S2V

https://humanaigc.github.io/wan-s2v-webpage/

https://github.com/Wan-Video/Wan2.2


Промпт: «На видео женщина с длинными волосами играет на пианино на берегу моря.  У женщины длинные серебристо-белые волосы, а на голове горит  огненная корона .  Девушки поют с глубоким чувством, и их лица выражают сильные эмоции.  Женщина сидит боком перед пианино и внимательно играет».


Промпт: «На видео женщина поёт.  У неё очень лиричное выражение лица, она словно опьянена музыкой».

 

Поломал ИИ. Долго и нудно неделями общался в одной ветке по одной теме.

После попросил создать пирамиду отставаний от переднего края науки.

В процессе, он указал, что текущее отставание на 90% от переднего доступного края.

Оценил мои знания на 85%, что входит в 1% "знающих".

И тут магия - Промпт "Доведи мои знания до 99% переднего края науки". Сижу, удивляюсь тому, что знает ИИ.

 

Арты. Девушки. Миджорни