Midjourney и другие нейросети обработки изображений - страница 1130

 
Ivan Butko #:
Если не секрет, то какой промт был использован?

Все совпадения случайны. Ну или почти.

Вероятность снова найти ту пикчу в галерее маловероятна, промты я не сохраняю.

Похожие обычно начинаются со слов A lo-fi 2010s iPhone selfie.

 

Животные. Sora


 

Tongyi DeepResearch: Открывая эру автономных ИИ-агентов от Alibaba

Tongyi DeepResearch: новая эра исследователей ИИ с открытым исходным кодом | Глубокие исследования Tongyi

GitHub - Alibaba-NLP/DeepResearch: Tongyi DeepResearch, ведущий агент DeepResearch с открытым исходным кодом



Команда Tongyi (Alibaba) представляет Tongyi DeepResearch — первый полностью открытый веб-агент, чья производительность сопоставима с лучшими проприетарными системами, такими как OpenAI’s DeepResearch.

Это не просто новая модель, а прорыв в архитектуре и обучении агентов. DeepResearch систематически превосходит все существующие аналоги на ключевых бенчмарках, включая Humanity’s Last Exam (32.9) и сложные задачи поиска информации (BrowseComp: 43.4).

Секрет в синтетике и итерациях

В основе успеха — полностью синтетические данные. Вместо ручной разметки, инновационные методы, такие как WebShaper, генерируют вопросы PhD-уровня с контролируемой сложностью. Это позволило создать масштабируемый пайплайн обучения от дообучения (CPT) до финального обучения с подкреплением (RL).

Для решения сложнейших задач представлен Heavy Mode на базе IterResearch. Он борется с "когнитивным удушьем", перестраивая "рабочее пространство" на каждом шаге, фокусируясь только на ключевых выводах, что позволяет поддерживать ясность мышления.

Qwen в действии: от теории к практике

Tongyi DeepResearch — это естественная эволюция экосистемы Qwen. Технология уже интегрирована в реальные продукты Alibaba:

  • Xiao Gao в Amap (Gaode) планирует сложные маршруты, учитывая ваши пожелания.
  • Tongyi FaRui ведет юридические исследования, сопоставляя законы и прецеденты со ссылками на источники.

Модель Tongyi DeepResearch-30B-A3B и методология уже открыты для сообщества. Это не конечная точка, а фундамент для будущих, еще более мощных агентов на базе Qwen, которые будут решать задачи любой сложности.


 

AI переходы между элементами видео. Интересная затея. Пока только лист ожидания.

https://www.veed.io/shapeshifter-waitlist

 

Meta* представила Ray-Ban Display — умные очки с экраном и браслетом Neural Band

https://about.fb.com/news/2025/09/meta-ray-ban-display-ai-glasses-emg-wristband/

//текст GPT5, обложка Gemini2.5

Meta* показала новое поколение своих умных очков — Ray-Ban Display.

В отличие от прошлых моделей, теперь в них появился цветной дисплей, встроенный сбоку в правую линзу. Он включается только тогда, когда это нужно, чтобы не превращать устройство в «телефон на лице».

Через дисплей можно:

  • просматривать и отвечать на сообщения,

  • получать переводы слов и фраз,

  • использовать ИИ-ассистента Meta* AI,

  • прокладывать маршрут в навигаторе,

  • видеть фотографии ещё до съёмки (как через видоискатель).

Очки комплектуются браслетом Meta* Neural Band, который работает на электромиографии.

Он считывает мышечные импульсы на запястье и превращает их в команды: можно прокручивать страницы, нажимать на кнопки, а в будущем даже набирать текст — без жестов рукой и лишних движений.

Из базового: поддерживаются звонки, воспроизведение музыки и перевод речи в реальном времени.

Автономность:

  • очки — до 6 часов работы, или до 30 часов с зарядным кейсом;

  • браслет — до 18 часов.

Стоимость комплекта — $799. Первые продажи стартуют 30 сентября в США, а в начале 2026 года устройство появится в Канаде, Франции, Италии и Великобритании.


*Meta и её продукты Facebook, WhatsApp, Instagram, Threads признаны экстремистскими и запрещены в РФ.

 

Разное. Животные. Sora


 

Разное. Девушки. Миджорни


 

//обложка Gemini2.5, текст GPT5

Сегодня стало известно о крупной сделке между Nvidia и Intel. Nvidia вложила $5 млрд, купив акции Intel, и параллельно компании договорились о стратегическом партнёрстве. Суть в том, что Intel будет выпускать специальные x86-процессоры для дата-центров, которые Nvidia использует в своих ИИ-системах. А для рынка ПК Intel создаст SoC, где объединят CPU Intel и графику Nvidia RTX в одном кристалле.

Рынок отреагировал бурно: акции Intel взлетели почти на 30% за день — один из самых сильных скачков за последние годы. Бумаги Nvidia тоже подросли, но скромнее. Инвесторы восприняли новость как шанс для Intel вернуться в лидеры и как укрепление позиций Nvidia в сегменте CPU+GPU.

Эксперты отмечают, что сделка может серьёзно изменить расстановку сил на рынке: AMD получает мощного конкурента в сегменте «процессор+графика», а у TSMC появляется риск усиления конкуренции со стороны Intel, если та сможет подтянуть производство. Пока же главная интрига — удастся ли Intel реализовать всё технически и не потерять независимость в альянсе с Nvidia.

 

Ray3 от Luma AI — новая видеомодель

  • Первая “reasoning”-модель для видео — умеет рассуждать, планировать сцену и улучшать результат.

  • Поддержка HDR (10–16 бит), EXR-формат, конверсия SDR→HDR.

  • Draft Mode — быстрые черновики для экспериментов.

  • Улучшены детали, движение, свет, консистентность персонажей.

  • Экспорт: 1080p нативно, апскейл до 4K.

  • Пока ограничение: до 10 секунд видео.

  • Уже встроена в Dream Machine и доступна через Adobe Firefly.

👉 Это шаг к профессиональному уровню AI-видео, пригодному не только для идей, но и для продакшн.

 

В проекте Wan 2.2 (от Alibaba / Qwen) вышел новый видео модуль ИИ Wan-Animate

Захват движения с липсинком, изменение персонажа просто по фотке.

На данный момент это самый качественный видео-генератор ИИ с открытым кодом под лицензией Apache 2.0

Wan-AI/Wan2.2-Animate-14B · Hugging Face

https://create.wan.video/generate