Midjourney и другие нейросети обработки изображений - страница 1130
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Если не секрет, то какой промт был использован?
Все совпадения случайны. Ну или почти.
Вероятность снова найти ту пикчу в галерее маловероятна, промты я не сохраняю.
Похожие обычно начинаются со слов A lo-fi 2010s iPhone selfie.
Животные. Sora
Tongyi DeepResearch: Открывая эру автономных ИИ-агентов от Alibaba
Tongyi DeepResearch: новая эра исследователей ИИ с открытым исходным кодом | Глубокие исследования Tongyi
GitHub - Alibaba-NLP/DeepResearch: Tongyi DeepResearch, ведущий агент DeepResearch с открытым исходным кодом
Команда Tongyi (Alibaba) представляет Tongyi DeepResearch — первый полностью открытый веб-агент, чья производительность сопоставима с лучшими проприетарными системами, такими как OpenAI’s DeepResearch.
Это не просто новая модель, а прорыв в архитектуре и обучении агентов. DeepResearch систематически превосходит все существующие аналоги на ключевых бенчмарках, включая Humanity’s Last Exam (32.9) и сложные задачи поиска информации (BrowseComp: 43.4).
Секрет в синтетике и итерациях
В основе успеха — полностью синтетические данные. Вместо ручной разметки, инновационные методы, такие как WebShaper, генерируют вопросы PhD-уровня с контролируемой сложностью. Это позволило создать масштабируемый пайплайн обучения от дообучения (CPT) до финального обучения с подкреплением (RL).
Для решения сложнейших задач представлен Heavy Mode на базе IterResearch. Он борется с "когнитивным удушьем", перестраивая "рабочее пространство" на каждом шаге, фокусируясь только на ключевых выводах, что позволяет поддерживать ясность мышления.
Qwen в действии: от теории к практике
Tongyi DeepResearch — это естественная эволюция экосистемы Qwen. Технология уже интегрирована в реальные продукты Alibaba:
Модель Tongyi DeepResearch-30B-A3B и методология уже открыты для сообщества. Это не конечная точка, а фундамент для будущих, еще более мощных агентов на базе Qwen, которые будут решать задачи любой сложности.
AI переходы между элементами видео. Интересная затея. Пока только лист ожидания.
https://www.veed.io/shapeshifter-waitlist
Meta* представила Ray-Ban Display — умные очки с экраном и браслетом Neural Band
https://about.fb.com/news/2025/09/meta-ray-ban-display-ai-glasses-emg-wristband/
//текст GPT5, обложка Gemini2.5
Meta* показала новое поколение своих умных очков — Ray-Ban Display.
В отличие от прошлых моделей, теперь в них появился цветной дисплей, встроенный сбоку в правую линзу. Он включается только тогда, когда это нужно, чтобы не превращать устройство в «телефон на лице».
Через дисплей можно:
просматривать и отвечать на сообщения,
получать переводы слов и фраз,
использовать ИИ-ассистента Meta* AI,
прокладывать маршрут в навигаторе,
видеть фотографии ещё до съёмки (как через видоискатель).
Очки комплектуются браслетом Meta* Neural Band, который работает на электромиографии.
Он считывает мышечные импульсы на запястье и превращает их в команды: можно прокручивать страницы, нажимать на кнопки, а в будущем даже набирать текст — без жестов рукой и лишних движений.
Из базового: поддерживаются звонки, воспроизведение музыки и перевод речи в реальном времени.
Автономность:
очки — до 6 часов работы, или до 30 часов с зарядным кейсом;
браслет — до 18 часов.
Стоимость комплекта — $799. Первые продажи стартуют 30 сентября в США, а в начале 2026 года устройство появится в Канаде, Франции, Италии и Великобритании.
*Meta и её продукты Facebook, WhatsApp, Instagram, Threads признаны экстремистскими и запрещены в РФ.
Разное. Животные. Sora
Разное. Девушки. Миджорни
//обложка Gemini2.5, текст GPT5
Сегодня стало известно о крупной сделке между Nvidia и Intel. Nvidia вложила $5 млрд, купив акции Intel, и параллельно компании договорились о стратегическом партнёрстве. Суть в том, что Intel будет выпускать специальные x86-процессоры для дата-центров, которые Nvidia использует в своих ИИ-системах. А для рынка ПК Intel создаст SoC, где объединят CPU Intel и графику Nvidia RTX в одном кристалле.
Рынок отреагировал бурно: акции Intel взлетели почти на 30% за день — один из самых сильных скачков за последние годы. Бумаги Nvidia тоже подросли, но скромнее. Инвесторы восприняли новость как шанс для Intel вернуться в лидеры и как укрепление позиций Nvidia в сегменте CPU+GPU.
Эксперты отмечают, что сделка может серьёзно изменить расстановку сил на рынке: AMD получает мощного конкурента в сегменте «процессор+графика», а у TSMC появляется риск усиления конкуренции со стороны Intel, если та сможет подтянуть производство. Пока же главная интрига — удастся ли Intel реализовать всё технически и не потерять независимость в альянсе с Nvidia.
Ray3 от Luma AI — новая видеомодель
Первая “reasoning”-модель для видео — умеет рассуждать, планировать сцену и улучшать результат.
Поддержка HDR (10–16 бит), EXR-формат, конверсия SDR→HDR.
Draft Mode — быстрые черновики для экспериментов.
Улучшены детали, движение, свет, консистентность персонажей.
Экспорт: 1080p нативно, апскейл до 4K.
Пока ограничение: до 10 секунд видео.
Уже встроена в Dream Machine и доступна через Adobe Firefly.
👉 Это шаг к профессиональному уровню AI-видео, пригодному не только для идей, но и для продакшн.
В проекте Wan 2.2 (от Alibaba / Qwen) вышел новый видео модуль ИИ Wan-Animate
Захват движения с липсинком, изменение персонажа просто по фотке.
На данный момент это самый качественный видео-генератор ИИ с открытым кодом под лицензией Apache 2.0
Wan-AI/Wan2.2-Animate-14B · Hugging Face
https://create.wan.video/generate