Midjourney и другие нейросети обработки изображений - страница 1147
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
В ходе выступления на форуме Blockchain Life 2025 в Дубае (28-29 октября 2025) Павел Дуров представил проект Cocoon — «Confidential Compute Open Network» на базе блокчейна TON.
Ниже — объективный разбор ключевых моментов, включая детали, цитаты и выводы.
//текст GPT5, обложка Gemini 2.5
Что такое Cocoon
Название: Confidential Compute Open Network (Cocoon).
Суть: децентрализованная сеть, которая объединяет владение вычислительными ресурсами (в частности GPU) и инфраструктуру ИИ-задач.
Как работает:
Владельцы GPU (графических процессоров) могут подключать своё оборудование к сети и получать вознаграждение в криптовалюте Toncoin (TON).
Разработчики ИИ-приложений получают доступ к распределённым вычислениям, с акцентом на приватность: «инференс» моделей без полного контроля хост-провайдера.
Запуск запланирован на ноябрь 2025.
Первоначальный крупный пользователь: сам мессенджер Telegram, который интегрирует Cocoon в свою экосистему мини-приложений и ботов.
Почему Дуров делает это — мотивация
Павел Дуров в своей речи подчеркнул несколько идей:
Мир движется «в странном направлении», люди всё больше теряют цифровые свободы.
Децентрализованные технологии — единственный путь сохранить эти свободы.
Приватность должна быть встроена в инфраструктуру ИИ, а не быть «доплатой». Cocoon проектируется с этой целью: обеспечить вычисления ИИ без раскрытия данных у сторонних компаний.
Важные технические и бизнес-аспекты
Маркетплейс вычислительной мощности. Сеть создаёт среду, где владельцы оборудования конкурируют за задачи ИИ, получают TON, а разработчики получают доступ к ресурсам без привязки к мощностям крупных облаков.
Интеграция с TON и Telegram. Это не просто отдельный стартап — проект встроен в экосистему Telegram/TON. Такая административная связь даёт ему шанс избежать «старта с нуля».
Инфраструктурная поддержка. В качестве примера: компания AlphaTON Capital объявила крупные инвестиции в GPU-кластерную инфраструктуру, чтобы поддержать Cocoon.
Приватный инференс. Важный технический акцент: вычисления должны быть такими, что даже владелец GPU не получает «чистого доступа» к данным — конфиденциальность встроена.
Что остаётся неясным или требует внимания
Хотя Дуров объявил запуск в ноябре 2025, нет точной даты и полной дорожной карты (например, этапы, регионы, объёмы).
Как именно будет организована защита данных, и каковы гарантии, что владельцы оборудования не смогут вмешиваться — технические детали пока не раскрыты.
Насколько масштабно будет первое «пользовательское применение» через Telegram, и каковы реальные показатели нагрузок и комиссии.
Как будет регулироваться сеть с точки зрения законодательства, налогообложения, и есть ли риски для участников-провайдеров оборудования.
Вывод
Проект Cocoon выглядит как серьёзный шаг в сторону слияния ИИ-инфраструктуры с децентрализованными моделями — под флагом приватности и цифровой свободы. При этом важно помнить: такие амбициозные планы часто сталкиваются с практическими сложностями (масштабирование, регулирование, конкуренция). Если всё пойдёт по плану — это может стать заметным событием в индустрии ИИ и блокчейна.
Если хочешь — могу поискать технико-экономический анализ Cocoon: сколько ресурсов потребуется, какого масштаба аппаратное обеспечение, возможные доходы и риски.
Cursor 2.0 — подробный саммари
//Текст GPT5
Вот — честный обзор, без приукрашивания, что нового вышло, зачем и кому это может быть интересно.
Что такое Cursor и почему это важно
Продукт компании Anysphere, Inc., стартапа из США, запущенного в 2022 году.
Cursor позиционируется как IDE/редактор с глубокой интеграцией ИИ-ассистента: помощь с автодополнением, переписыванием кода, навигацией по кодовой базе.
Версия 2.0 (или “Cursor 2.0”) выпущена 29 октября 2025.
Почему это может быть интересно: показывает направление, в котором движутся инструменты разработки с ИИ — не просто помощь, а попытка более автономной работы моделей внутри IDE.
Что именно нового в версии 2.0
Вот список ключевых фич и улучшений:
Новая модель «Composer”
Компания представила модель собственного производства под названием Composer.
Заявляется, что она в ~4 раза быстрее моделей сопоставимой интеллектуальности.
Тренировалась в средах, приближённых к ре-кодовой базе (работа с версионированием, зависимостями и т.д.).
Интерфейс с мульти-агентами
В редактор добавлена поддержка запуска до 8 «агентов» одновременно, на один и тот же prompt.
Каждый агент работает в своей изолированной ветке (git worktrees или удалённые машины) чтобы избежать конфликтов.
Встроенный браузер и тестирование кода
Встроена браузерная среда (состояние GA) — агенты могут “видеть” DOM, тестировать интерфейсы, работать с веб-контекстом.
Это шаг к тому, чтобы ИИ-агент не просто генерировал код, но и проверял, как он работает в среде.
Песочница для терминала (sandboxed terminals)
На macOS по умолчанию команды, генерируемые агентами, запускаются в песочнице без доступа к интернету и с ограничениями.
Голосовой режим (Voice Mode)
Возможность управлять агентом с помощью голоса: диктовать команду, запускать агентов через речь.
Улучшения производительности и UX
Быстрее LSP-сервисы (например, Python и TypeScript) для больших репозиториев.
Интерфейс изменения контекста подсказки изменён: меньше ручной работы по привязке контекста.
Кому это может пригодиться
Разработчикам, работающим с крупными проектами, где важно быстрое понимание кода, навигация и автоматизация изменений.
Командам, которые хотят интегрировать ИИ-агентов как часть рабочего процесса: не просто «подсказка», а что-то вроде «агент, сделай за меня ветку, протестируй, создай PR».
Тем, кто хочет быть на передовой: наблюдать, как инструменты ИИ становятся всё более «рабочими» и автономными, а не просто вспомогательными.
Вопросы и потенциальные подводные камни
Насколько надёжна модель Composer в реальных проектах? Компания заявляет, что быстрее, но не всегда ясно, насколько она точна и безопасна в продакшне.
Какова цена и расходы? Запуск 8 агентов — это может быть дорого или требовать серьёзных ресурсов. В обсуждениях уже поднимают вопрос о понимании тарификации.
Настороженность: автоматизация большого количества изменений кода требует очень хорошего контроля — риски ошибок, регресса, некачественного кода.
Интеграция, зависимость: если команда полностью перейдёт на ИИ-агентов, возрастает зависимость от платформы и модели, её политики и обновлений.
Итог
Если коротко: версия 2.0 Cursor — это значительный шаг вперёд. Не просто редактор с ИИ-подсказками, а система, ориентированная на «агентов», которые действуют внутри проекта, параллельно, с большей автономностью. Если вы занимаетесь разработкой серьёзных проектов и интересуетесь тем, как ИИ меняет сам процесс разработки — имеет смысл присмотреться.
OpenAI представила gpt-oss-safeguard — открытую модель для ИИ-безопасности
//Текст GPT5 на основе новости https://openai.com/index/introducing-gpt-oss-safeguard/
OpenAI выпустила новую исследовательскую модель gpt-oss-safeguard, доступную в двух версиях — 120B и 20B, под лицензией Apache 2.0. Это первые открытые модели, предназначенные специально для классификации контента по политикам безопасности.
Как это работает
В отличие от классических фильтров, обученных под одну фиксированную политику, gpt-oss-safeguard принимает саму политику как часть входных данных. То есть разработчик передаёт текст и правила (“что считать опасным”), а модель сама рассуждает и выносит решение, объясняя ход мыслей (chain-of-thought).
Зачем это нужно
Такой подход делает систему гибкой и адаптивной — не нужно заново обучать модель при изменении правил. Это особенно полезно для быстро меняющихся платформ, где важна точная, контекстная фильтрация контента.
Ограничения
Модель крупная и требует серьёзных вычислительных ресурсов, а при простых задачах традиционные фильтры всё ещё эффективнее. Качество результатов зависит от чёткости заданной политики.
Значение
gpt-oss-safeguard — шаг к открытой и прозрачной экосистеме безопасного ИИ. Теперь разработчики и исследователи могут свободно адаптировать и улучшать системы безопасности под собственные нужды, не полагаясь на “чёрные ящики”.
Примеры использования
🔹 Игровые сообщества и форумы.
Политика может меняться от темы к теме: сегодня фильтруем спойлеры, завтра — токсичные споры.
🔹 Образовательные платформы.
Модель помогает фильтровать советы и материалы, ориентируясь на возраст и контекст.
🔹 Корпоративные ассистенты.
Safeguard может проверять внутренние переписки и документы на соответствие политике безопасности компании.
🔹 Разработка ИИ.
Исследователи могут менять политику на лету и тестировать, как ИИ реагирует на разные наборы этических правил.
//текст GPT5
Nvidia
Компания стала первой в истории публичных компаний, чья рыночная капитализация превысила $5 трлн.
Прорыв произошёл 29 октября 2025 года.
Основные драйверы:
Огромный рост спроса на её чипы, используемые в ИИ-инфраструктуре.
Переквалификация из производителя графических устройств в ключевого поставщика аппаратной базы ИИ.
Быстрый рост: компания за считанные месяцы прошла путь от ~$4 трлн до ~$5 трлн.
Что это значит: рынок оценивает компанию не просто как «чипмейкера», а как центральный узел новой парадигмы ИИ-инвестиций. Это сигнал, что акционеры ставят на инфраструктуру ИИ как драйвер будущего.
Apple
Компания впервые преодолела отметку $4 трлн рыночной капитализации.
Это произошло 28 октября 2025 года.
Подъём объясняется:
Сильным спросом на свежую линейку iPhone — например, iPhone 17 и iPhone Air.
Снятием части опасений по поводу слабого прогресса в ИИ: хорошее устройство даёт стимул экосистеме.
Что это значит: Даже гигант с устойчивым бизнесом как Apple, который не является чистым «игроком ИИ-инфраструктуры», может показать значительный рост при удачном продукте. Тем не менее, его рост менее стремительный, чем у Nvidia.
Почему это важно
За примерно полгода — обе компании оказались на уровнях капитализации, которые ещё недавно казались крайне удалёнными.
Это отражение: инвесторы сейчас не просто покупают «техника» — они покупают сценарий будущего: ИИ, инфраструктуру, экосистемы.
Риск тоже растёт: чем выше оценки, тем сильнее зависимость от работы будущих ожиданий — если технологический прогресс замедлится или конкуренция усилится, корректировка может быть резкой.
Девушки. Миджорни
Emu 3.5 — новая мультимодальная модель от Beijing Academy of AI (BAAI), представленная 30 октября 2025 года.
https://github.com/baaivision/Emu3.5
//текст GPT5
Она знаменует переход от “моделей, которые видят и говорят”, к системам, которые понимают и предсказывают изменения мира. Emu 3.5 учится не просто распознавать или описывать объекты, а понимать действия, динамику и причинно-следственные связи между ними.
Основные особенности
34 млрд параметров — почти в 4 раза больше, чем у предыдущей версии.
Обучена на 10 трлн мультимодальных токенов (текст, изображения, видео, действия).
Использует новую технологию DiDA (Discrete Diffusion Adaptation), ускоряющую генерацию примерно в 20 раз.
Работает в едином потоковом формате — смешанные последовательности текста, изображений и видео анализируются и предсказываются как единый “язык мира”.
Поддерживает задачи: генерация и редактирование изображений, видео-сцены, моделирование действий, планирование и интерактивные сценарии.
Что нового
Главное новшество — переход от восприятия к действию. Если ранние мультимодели умели “понимать” или “создавать” контент, то Emu 3.5 делает шаг к моделированию физической реальности: она способна предсказать, что произойдёт, если объект сдвинуть, осветить иначе или взаимодействовать с ним.
Практическое значение
Emu 3.5 открывает путь к ИИ-агентам, которые могут работать не с текстами, а с реальными процессами: управлением роботами, визуальными интерфейсами, симуляциями.
Это важный шаг к универсальным системам, где одно ядро может рассуждать, видеть и действовать.
Вывод
Emu 3.5 — крупнейший и самый амбициозный релиз китайских исследователей в области мультимодального ИИ.
Модель объединяет зрение, язык и действие в одну логическую систему и формирует фундамент для будущих “мировых моделей” — ИИ, способных понимать реальность не на уровне слов, а на уровне изменений.
Соревнование по торговле криптой подходит к концу, полмесяца - это очень мало для выводов. Кривая баланса очень... кривая. Но ДипСыск стабильно впереди. Почти 50% за полмесяца.
Не думаю, что за несколько месяцев Дип и Квен удержатся в плюсе.
А тут ещё другое соревнование по торговле акциями из Nasdaq-100. Уже месяц. И угадайте, что впереди?
Пунктиром - сам индекс Nasdaq-100.
https://hkuds.github.io/AI-Trader/index.html
Польский язык стал лидером для общения с ИИ — но не во всём
//Текст GPT5, обложка Gemini 2.5
Новое исследование One Ruler to Measure Them All (University of Maryland, Microsoft, UMass Amherst) протестировало крупнейшие языковые модели на 26 языках. Для этого учёные создали бенчмарк ONERULER, проверяющий, как нейросети работают с «длинным контекстом» — текстами объёмом до 128 000 токенов.
Результаты оказались неожиданными: польский язык занял первое место, показав лучшую точность выполнения задач среди всех языков. Английский оказался лишь шестым. Исследователи объясняют феномен тем, что структура польского языка и качество его перевода в обучающих данных могли оказаться оптимальными для обработки больших контекстов.
Однако важно понимать: тесты касались только задач с длинным контекстом, а не диалогов или команд. Это значит, что польский не стал «идеальным» языком для общения с ИИ во всех сценариях — лишь в одном специфическом классе задач.
Тем не менее результат интересен: он показывает, что эффективность больших языковых моделей зависит не только от объёма англоязычных данных, но и от особенностей самих языков.
Источник: arXiv.org — One Ruler to Measure Them All: Benchmarking Multilingual Long-Context Language Models (Kim et al., 2025).
Самая мощная модель Qwen 3 Max получила режим рассуждения.
https://chat.qwen.ai