Midjourney и другие нейросети обработки изображений - страница 1187

 
Ivan Butko #:
Claude Opus разочаровал. 
...
Пару проектов мне завалил из-за того, что не прочитал все файлы проекта (их там всего два-три на пару десятков килобайт), потратив время и недельный лимит. Ждал несколько дней до понедельника, пока лимит восстановится, хотя всё оплачено. Я понимаю часовой лимит - сидишь ждёшь несколько часов — это нормально, это разгружает их серваки и всё такое. Но ждать до конца недели, потому что закончился недельный лимит — это нонсенс какой-то. А чё не месячный лимит, может скоро добавят, сидишь такой, две недели ждёшь, когда тебе подключат бота.
...

Только среда, успел исправить ошибки в проекте, а недельный лимит уже исчерпался до 74% (!) 

Ещё парочка правок и ждать до понедельника!




Дичь какая-то. 

В этом опусе только индикаторы со скользящими средними пилить, может тогда хватит лимитов, чтобы проверить достаточно
 

Эмерджентные свойства ИИ. Когда количество становится качеством


//текст и обложка Gemini 3.1

Эмерджентность в контексте нейросетей — это ситуация, когда количественные изменения (рост числа параметров, объема обучающих данных и вычислительных мощностей) внезапно приводят к качественному скачку.

Модель начинает решать задачи или демонстрировать навыки, которым ее никто целенаправленно не обучал. Эти свойства не заложены в архитектуре явно, они «выкристаллизовываются» из невероятно сложной паутины связей внутри нейросети, когда та достигает определенного масштаба.

Вот как развивались эти навыки по мере роста моделей:

Исторические примеры и пороги появления

Исследователи заметили, что многие способности просыпаются не плавно, а резко, по достижении определенного количества параметров (хотя объем качественных данных тоже играет огромную роль):

  • До 10 млрд параметров: Базовое понимание языка. Модели научились неплохо продолжать текст, генерировать связные предложения и осуществлять простейший перевод, хотя их учили только угадывать следующее слово.

  • Около 10–50 млрд параметров: Появление зачатков логики. Модели начали справляться с базовой арифметикой (сложение двузначных чисел) и научились писать простой, шаблонный код, хотя в их обучающей выборке специально акцент на этом не делался.

  • Около 100 млрд параметров: Резкий скачок в Few-Shot Prompting (обучение на нескольких примерах). Модель начала «на лету» понимать, что от нее хотят, если дать ей 2–3 примера в самом запросе, без необходимости дообучать (fine-tune) саму сеть. На этом же рубеже ИИ начал улавливать сарказм, иронию и контекстный юмор.

  • Около 500 млрд параметров: Способность к Chain-of-Thought (цепочке рассуждений). Если попросить такую модель «давайте подумаем шаг за шагом», она внезапно начинает решать сложные логические и математические задачи, которые проваливала при попытке дать ответ сразу.

Важный нюанс из мира науки: В 2023 году исследователи из Стэнфорда выпустили работу, предполагающую, что эмерджентность может быть отчасти «миражом», зависящим от того, как мы измеряем успех. Если оценивать строго (например, либо точный ответ, либо ноль), то прогресс выглядит как резкий скачок. Если измерять вероятность правильных токенов — рост выглядит более плавным. Тем не менее, для конечного пользователя этот переход ощущается именно как внезапная магия: вчера модель не умела решать задачу, а сегодня умеет.

Чего ждать от 1, 10 и 100 триллионов параметров?

Мы уже находимся в эпохе моделей на 1+ триллион параметров (современные флагманы используют архитектуру Mixture-of-Experts, где суммарный вес переваливает за этот рубеж).

На уровне 1–2 трлн параметров мы сейчас наблюдаем зарождение агентности. Способность выступать в роли автономного ИИ-агента, который может не просто выдавать куски текста, а держать в контексте целые директории, самостоятельно анализировать архитектуру проекта, генерировать код и дебажить его прямо в IDE (тот самый фундамент, на котором строится современный подход vibecoding) — это качественный скачок моделей этого поколения.

На уровне 10 трлн параметров ожидаются следующие потенциальные свойства:

  • Стратегическое планирование (Long-horizon planning): Способность модели разбивать глобальную цель на сотни мелких шагов, выполнять их последовательно, корректируя курс при ошибках в реальном времени.

  • Глубокое кросс-доменное обобщение: Способность находить неочевидные связи между совершенно разными научными дисциплинами (например, применять законы гидродинамики для оптимизации графов или макроэкономики).

  • Zero-day problem solving: Успешное решение задач, концепций которых вообще не существовало в обучающей выборке.

А что при 100 трлн параметров? Здесь начинаются неизведанные территории. Многие эксперты считают, что при таких масштабах модель сможет самостоятельно генерировать новые научные гипотезы и проводить виртуальные эксперименты. Однако на пути к 10 и 100 триллионам параметров стоят суровые физические ограничения: упирание в пределы текущей архитектуры GPU, глобальные ограничения пропускной способности памяти (DRAM) и энергопотребление целых дата-центров, а также банальная нехватка качественного человеческого текста для обучения.

// Любопыства ради, человеческий мозг в "цифровом" сравнении где-то 100 - 500+ трлн параметров с потреблением около 20 Вт.

 

Claude Code: История одного «npm publish» и триумф инженерной мысли


//текст и обложка Gemini 3 Thinking

31 марта 2026 года войдет в историю индустрии как день «Великого Source Map-а». Ошибка при публикации пакета в реестр npm открыла доступ к 512 000 строк исходного кода Claude Code — самого продвинутого терминального агента современности.

Разбираемся, как Anthropic за один год прошла путь от простого чат-бота до автономного инженера и что на самом деле скрывается внутри их «черного ящика».


С чего всё началось: Путь к автономности

История Claude Code — это история отказа от концепции «ИИ как собеседника» в пользу «ИИ как напарника».

  • Начало 2025 года: Anthropic осознает, что даже самая мощная модель (на тот момент Claude 3.5 Sonnet) ограничена веб-интерфейсом. Разработчикам надоело копипастить код из чата в IDE.

  • Февраль 2025: Релиз закрытой беты Claude Code. В отличие от GitHub Copilot, который просто «дописывает» строчки, Claude Code изначально задумывался как терминальный агент, имеющий доступ к файловой системе, git и командам сборки.

  • Май 2025: Инструмент становится общедоступным (GA). Anthropic заявляет о росте выручки в 5.5 раз за квартал — разработчики начали массово делегировать ИИ рутинный рефакторинг и написание тестов.

  • Апрель 2026: Случайная утечка source-map файлов версии 2.1.88 раскрывает всю внутреннюю кухню.


Как произошла утечка?

Ирония судьбы: компания, создающая ИИ для написания идеального кода, сама допустила классическую ошибку. При сборке пакета через Bun забыли добавить *.map в файл .npmignore . В итоге в открытый доступ попали карты соответствия, позволяющие полностью восстановить структуру исходного кода из обфусцированного JavaScript.

«Это как если бы производитель грузовиков использовал лошадей для перевозки запчастей», — шутят в сети, обсуждая, что Anthropic использует старые добрые регулярные выражения (RegEx) для определения «фрустрации» пользователя в терминале.


Технический разбор: Что внутри?

Анализ кода подтвердил главную гипотезу: магия Claude не в «секретных весах» модели, а в невероятно сложной инженерной обвязке.

1. Архитектура «Умных Инструментов»

Вместо того чтобы просто слать в модель текст, Claude Code окружает её слоем инструментов:

  • LSP-интеграция: Модель видит не текст, а дерево зависимостей. Она понимает связи между функциями в разных файлах.

  • Собственный Grep/Glob: Вместо стандартных команд Bash используются кастомные инструменты, которые фильтруют лишний шум и экономят токены.

  • KAIROS: Обнаружен фоновый агент, который постоянно следит за состоянием репозитория, обновляя «индекс знаний» проекта без участия пользователя.

2. Управление контекстом (Context Management)

Claude Code борется за каждый токен:

  • Кэширование: Статические инструкции и системные промпты кэшируются глобально.

  • Суммаризация: Если вывод теста слишком длинный, агент сжимает его, оставляя только суть ошибки.

  • Память в Markdown: Агент ведет лог сессии в .md , создавая «внешнюю память», которая помогает не терять нить задачи при длительных операциях.

3. Скрытые функции и будущее

В коде найдены упоминания того, что Anthropic тщательно скрывала:

  • Undercover Mode: Режим, в котором ИИ маскирует свои правки под человеческие, не оставляя меток в коммитах (используется сотрудниками Anthropic для контрибьютов в Open Source).

  • Будущие модели: Заглушки для Opus 4.7 и Sonnet 4.8, а также кодовое имя Capybara (вероятно, новая сверхбыстрая модель для Chain-of-Thought рассуждений).


Реакция сообщества

Сеть разделилась на два лагеря. Одни в восторге от качества TypeScript-кода Anthropic (функции на 3000 строк — это тоже искусство). Другие же строят форки: уже появились первые попытки подставить в эту архитектуру DeepSeek V3 и Kimi.

Вердикт прост: Anthropic создала не просто утилиту, а полноценную «операционную систему» для автономного кодинга. И теперь, когда чертежи этой системы утекли, нас ждет взрывной рост open-source агентов, использующих те же принципы.

 

Google перевернула игру: Обзор Gemma 4 и битва с открытыми конкурентами


//текст и обложка Gemini 3.1 на основе https://huggingface.co/collections/google/gemma-4 и https://deepmind.google/models/gemma/gemma-4/

2 апреля 2026 года войдет в историю open-source искусственного интеллекта как день, когда Google DeepMind представила семейство Gemma 4. Это не просто дежурное обновление, а полноценный скачок в развитии компактных и мультимодальных нейросетей. Модели уже доступны на Hugging Face, Kaggle и Ollama под по-настоящему свободной лицензией Apache 2.0. Главный девиз релиза: «Байт к байту — самые способные открытые модели».

Разбираемся, что спрятано под капотом новинки, как она показывает себя в бенчмарках и выдерживает ли конкуренцию с невероятно мощными китайскими аналогами вроде Qwen 3.5.

Архитектура и версии: от смартфона до кластера

Gemma 4 представлена в четырех размерах, каждый из которых поставляется как в базовой, так и в instruction-tuned (дообученной на инструкциях) версии:

  • E2B (2,3 млрд параметров) и E4B (4,5 млрд параметров): Эти «малыши» созданы для работы прямо на пользовательских устройствах (on-device). Их невероятная особенность — нативная поддержка не только текста и изображений, но и аудио. Контекстное окно для таких крох составляет внушительные 128 тысяч токенов.

  • 26B MoE (архитектура Mixture-of-Experts) и 31B (31 млрд параметров): Тяжеловесы для серьезных продакшен-задач. Рекомендуются для запуска на серверном оборудовании уровня Nvidia H100. Контекстное окно расширено до 256 тысяч токенов. Эти версии обладают глубокими способностями к логическому «рассуждению» (reasoning) и вызову внешних инструментов (tool calling).

Одно из важнейших нововведений — улучшенный кодировщик изображений. Теперь он поддерживает картинки с любым соотношением сторон (variable aspect ratios) и позволяет настраивать количество токенов, выделяемых под визуальные данные. Это дает разработчикам возможность самостоятельно находить идеальный баланс между скоростью работы, потреблением памяти и качеством анализа.


Бенчмарки и конкуренция

Рынок открытых моделей в начале 2026 года раскален до предела. Традиционным западным аналогам с открытым исходным кодом сейчас активно противостоят китайские гиганты. Совсем недавно Alibaba выкатила Qwen 3.5 (и ее универсальную версию Qwen 3.5-Omni, способную писать код прямо по видеогайдам). Новаторская архитектура Qwen 3.5 (гибрид Gated DeltaNet + sparse MoE) позволила ей взлететь на вершину Arena.Ai, обойдя многих проприетарных гигантов и продемонстрировав феноменальную скорость на больших объемах данных.

Однако Gemma 4 достойно принимает этот вызов. В бенчмарках Google заявляет о безоговорочном лидерстве на «парето-фронте» (pareto frontier). Это означает, что при сопоставимом размере модели Gemma 4 выдают наилучшее в своем классе соотношение скорости и качества ответов.

В то время как китайская Qwen 3.5-Omni делает ставку на тотальную всеядность (включая тяжелое видео), компактные версии Gemma 4 (E2B/E4B) выигрывают за счет филигранной оптимизации под смартфоны (edge-девайсы). А старшие модели (26B MoE и 31B) задают новую планку качества генерации и анализа в весовой категории до 35 миллиардов параметров.


Отзывы сообщества: «Слишком хороша из коробки»

В сети (в частности, на Hugging Face и профильных форумах) уже появились первые восторженные отзывы энтузиастов и инженеров. Специалисты платформы Hugging Face в своем релизном блоге отметили забавную проблему: при подготовке обучающих материалов по файн-тюнингу (fine-tuning) Gemma 4, они «с трудом могли найти хорошие примеры, где модель ошибалась бы изначально, потому что из коробки она работает просто превосходно».

За что разработчики хвалят новинку:

  1. Честный Open Source: Лицензия Apache 2.0 развязывает руки коммерческому сектору — модель можно свободно встраивать в платные продукты.

  2. Мультимодальность малых форм: Возможность скормить аудио или картинку ИИ-модели на 2.3B параметров прямо на телефоне без доступа к интернету — это настоящий прорыв.

  3. Готовый инструментарий: Модель сразу «дружит» с локальными агентами и всеми популярными фреймворками и движками для запуска (включая Transformers, MLX, WebGPU и Rust).

Итог

Выпуск Gemma 4 — это действительно знаковое событие для индустрии. Google DeepMind наглядно доказала, что гонка ИИ выигрывается не только за счет триллионов параметров в платных закрытых API, но и благодаря оптимизации, открытости и удобству для разработчиков. Битва между Gemma 4, Qwen 3.5 и другими открытыми нейросетями перешла в ту стадию, где в выигрыше остается конечный пользователь: невероятно мощный и умный ИИ теперь буквально помещается в нашем кармане.

 

Обзор Qwen 3.6-Plus: 1 миллион токенов контекста и революция в сфере AI-агентов


//Текст и обложка Gemini 3.1. Официальная новость тут https://qwen.ai/blog?id=qwen3.6. Модель уже есть в чате.

В начале апреля 2026 года Alibaba официально представила новое поколение своей большой языковой модели — Qwen 3.6-Plus. Это масштабное обновление нацелено на то, чтобы перевести искусственный интеллект из разряда «умных собеседников» в категорию полноценных, надежных агентов для написания кода и решения сложных многоступенчатых задач.

Мы изучили официальный блог разработчиков, результаты бенчмарков и первые отзывы сообщества, чтобы понять, чем именно выделяется новинка.

Ключевые особенности Qwen 3.6-Plus

Новая модель получила усовершенствованную гибридную архитектуру, которая значительно повышает эффективность и масштабируемость. Основной упор сделан на работу с длинными контекстами и мультимодальность:

  • Контекстное окно на 1 000 000 токенов. По умолчанию модель способна удерживать в памяти гигантские объемы данных. Максимальный объем генерации (Output) увеличен до 32 000 токенов, что идеально подходит для написания крупных блоков кода или формирования подробных отчетов.

  • Агентное программирование (Agentic Coding). Qwen 3.6-Plus научилась самостоятельно читать различные системные файлы, разрешать конфликты в коде, выделять главное и выдавать структурированный, готовый к использованию результат. Модель поддерживает концепцию «vibe coding» — когда ИИ создает рабочий проект буквально по одному описательному предложению пользователя.

  • Улучшенная мультимодальность. ИИ теперь отлично считывает UI-макеты (и способен сразу генерировать для них фронтенд), а также умеет анализировать видео, отслеживая логику изменений в кадре с течением времени.

  • Стабильный внутренний контекст. В отличие от многих моделей, которые сбрасывают и пересчитывают «ход мыслей» на каждом шаге, Qwen 3.6 сохраняет внутренний контекст рассуждений. Это кардинально снижает количество ошибок при выполнении длительных многоэтапных задач.

Бенчмарки и реальные отзывы

Согласно тестам на платформе PinchBench (в частности, в рейтинге Kilo Code), Qwen 3.6-Plus демонстрирует результаты на уровне, а иногда и выше ведущих флагманских решений в задачах написания кода, рефакторинга и оркестрации. В сводных таблицах модель уверенно держится в десятке лучших в режимах «Code» и «Architect».

В сети уже начали появляться развернутые отзывы от разработчиков и AI-исследователей:

  • Аналитики (в частности, в публикациях на Medium) называют Qwen 3.6-Plus «первой по-настоящему агентной LLM». Эксперты отмечают, что главная сила модели кроется не в отдельных функциях, а в том, как тесно она объединяет логику, память и действия.

  • Пользователи профильных форумов выделяют высокую стабильность при использовании модели в терминалах и популярных средах разработки (VS Code, JetBrains).

  • В отзывах подчеркивается, что ИИ отлично справляется с долгосрочным планированием (Long-horizon planning) — сложной задачей, на которой часто «спотыкались» модели предыдущей 3.5-серии.

Сравнение с конкурентами

Alibaba позиционирует Qwen 3.6-Plus как прямого конкурента Claude Code от компании Anthropic и другим передовым специализированным решениям на рынке. В отличие от аналогов, которые больше ориентированы на классический текстовый диалог с пользователем, Qwen 3.6 делает ставку на глубокую интеграцию в рабочие экосистемы и фреймворки (например, OpenClaw). Модель выступает в роли «мыслящего слоя», пока внешние инструменты берут на себя физическое исполнение команд в системе.


Доступность

Версия Qwen 3.6-Plus (Preview) уже доступна для разработчиков через облачную платформу Alibaba Cloud Model Studio, а также появилась в API-агрегаторах, таких как OpenRouter и Puter.


Итог: Релиз Qwen 3.6-Plus — это не просто дежурное наращивание параметров ради красивых цифр, а серьезный шаг в сторону надежной автоматизации рутины. Модель успешно закрывает разрыв между синтетическими тестами и реальным использованием в продакшене, предоставляя командам разработчиков мощный инструмент для работы с кодом и мультимодальными данными.

 

Один человек — и оборот в миллиарды: как искусственный интеллект меняет бизнес по всему миру


//текст и обложка Grok 4.20

Представьте: компания зарабатывает сотни миллионов долларов в год, а в ней работает всего один или два человека. Это уже не фантастика, а реальность 2026 года. Яркий пример — американский сервис Medvi, о котором недавно рассказала газета New York Times.

Основатель Мэттью Галлахер из Лос-Анджелеса запустил телемедицинский сервис за два месяца и всего 20 тысяч долларов. Он не собирал большую команду. Вместо этого он поручил искусственному интеллекту почти всю работу: написать код сайта, подготовить тексты, создать рекламные ролики, фотографии «до и после», настроить аналитику и даже обслуживать клиентов. В штате теперь только он сам и его брат Эллиот. Всё остальное — врачи, аптеки, доставка — через подрядчиков.

Сервис Medvi помогает людям быстро и конфиденциально получить современные препараты для снижения веса на основе GLP-1 (агонистов рецептора глюкагоноподобного пептида-1). Пациент проходит онлайн-консультацию, получает рецепт и заказывает лекарство. Результаты впечатляют: первый месяц — 300 клиентов, второй — уже тысяча. За весь 2025 год компания заработала 401 миллион долларов при 250 тысячах клиентов. Чистая прибыль — 16,2 %. В 2026 году оборот приближается к 1,8 миллиарда долларов. Газета New York Times проверила финансовые документы и подтвердила все цифры.

А в Китае такой подход уже превратился в массовое явление. Там стремительно растёт число «компаний одного человека». По последним данным, их больше 16 миллионов. Государство поддерживает тренд грантами, бесплатными помещениями и вычислительными мощностями. Многие соло-предприниматели с помощью искусственного интеллекта запускают полноценные проекты — от создания приложений и маркетинговых платформ до производства коротких видео. Один человек управляет всем процессом, а искусственный интеллект берёт на себя рутину. В результате компании достигают миллионов долларов оборота, не расширяя штат. Это часть национальной стратегии по развитию экономики в эпоху искусственного интеллекта.

Пример Medvi и китайский бум «компаний одного человека» показывают главное: искусственный интеллект радикально повышает производительность. Теперь небольшая команда или даже один основатель может справляться с объёмами, на которые раньше требовались сотни сотрудников. Конечно, такой формат требует новых навыков и иногда вызывает чувство одиночества в работе. Но он открывает двери для тех, кто готов использовать искусственный интеллект как настоящего партнёра.

Будущее бизнеса уже здесь — и оно принадлежит умным одиночкам с мощными инструментами.

 

3 новые быстрые ИИ-модели семейства MAI от Microsoft для разработчиков и бизнеса


//текст и обложка Gemini 3.1 на базе новости https://microsoft.ai/news/today-were-announcing-3-new-world-class-mai-models-available-in-foundry/

Вчера подразделение Microsoft AI под руководством Мустафы Сулеймана представило три новые базовые модели собственной разработки: MAI-Transcribe-1, MAI-Voice-1 и MAI-Image-2. Новинки уже доступны разработчикам на корпоративной платформе Foundry.

Этот релиз профильные издания расценивают как радикальную смену рыночного вектора. Корпорация переходит к стратегии «ИИ-независимости», чтобы дать бизнесу максимальное качество при минимальной цене и высочайшей скорости вычислений.

Что под капотом новинок?

1. MAI-Transcribe-1 (Распознавание речи)

Заявлена разработчиками как самая точная на сегодняшний день модель преобразования речи в текст.

  • Точность: Средний уровень ошибок (WER) на индустриальном бенчмарке FLEURS для 25 ключевых языков составляет всего 3,8–3,9%. По заявлениям компании, это превосходит флагманские решения от главных конкурентов на рынке.

  • Особенности: Идеально справляется с «грязным» аудио из реальной жизни (фоновые шумы, нестабильная запись). Скорость пакетной транскрипции в 2,5 раза выше прошлых облачных решений Azure.

  • Цена: от $0,36 за час аудио.

2. MAI-Voice-1 (Генерация голоса)

Модель, задающая новый стандарт создания естественной, выразительной речи с точным сохранением эмоций и дикторских нюансов.

  • Производительность: Способна сгенерировать 60 секунд качественного аудио всего за 1 секунду процессорного времени.

  • Фишка: Разработчики могут безопасно создавать кастомные голоса всего по нескольким секундам эталонной аудиозаписи. Это открывает огромные перспективы для конструирования автономных голосовых ИИ-агентов.

  • Цена: $22 за 1 млн символов.

3. MAI-Image-2 (Генерация изображений)

Графическая нейросеть, которая на днях уверенно вошла в топ-3 авторитетного рейтинга Arena. Модель уже постепенно внедряется в поисковик Bing, интерфейсы Copilot и PowerPoint.

  • Скорость: Работает как минимум в 2 раза быстрее предыдущих версий при аналогичном или превосходящем качестве.

  • Преимущества: Отличается реалистичным рендерингом освещения, точной текстурой кожи и, что особенно важно для корпоративного сектора, безупречной генерацией текста внутри картинок (схемы, вывески, инфографика).

  • Цена: $5 за 1 млн токенов (ввод текста) и $33 за 1 млн токенов (вывод картинки).

Стратегический разворот: Microsoft врывается в гонку лидеров

Ключевая новость, которую сейчас активно обсуждает ИИ-сообщество — это радикальная смена парадигмы внутри корпорации. Если раньше Microsoft во многом полагалась на эксклюзивное партнерство со сторонними лабораториями и часто внедряла технологии с задержкой в несколько месяцев от релизов флагманов, то теперь компания меняет правила игры.

Инсайдеры подчеркивают: команда Сулеймана больше не планирует отставать на полгода. Их цель — обучать и выпускать передовые (state-of-the-art) модели, способные на равных конкурировать с топами рынка здесь и сейчас. Семейство MAI доказывает, что Microsoft намерена стать независимым и главным игроком в разработке собственных нейросетей.

Реакция сети и экспертов

В профильных ИИ-сообществах анонс встретили с большим энтузиазмом:

  1. Снижение давления инвесторов: Рынок давно требует от бигтеха доказать, что многомиллиардные вложения в ИИ окупаются. Быстрые, недорогие и узкоспециализированные корпоративные модели MAI — это прямой ответ на запрос бизнеса по снижению издержек.

  2. Фокус на «Гуманистический ИИ»: Подчеркивается идея, что новые нейросети созданы не ради рекордов в синтетических тестах, а для оптимизации реальных рабочих процессов человека.

  3. Отзывы первых пользователей: Крупные международные агентства уже переводят свои пайплайны на MAI-Image-2, отмечая точное следование сложным промптам и полную пригодность для создания готовых рекламных материалов.

Новые модели MAI — это серьезный вызов рынку в энтерпрайз-сегменте, где на первый план выходят не столько абстрактные возможности ИИ, сколько скорость, независимость разработчика и рентабельность интеграции в готовые продукты.

 
Vitaliy Kuznetsov #:

Один человек — и оборот в миллиарды: как искусственный интеллект меняет бизнес по всему миру


//текст и обложка Grok 4.20

Представьте: компания зарабатывает сотни миллионов долларов в год, а в ней работает всего один или два человека. Это уже не фантастика, а реальность 2026 года. Яркий пример — американский сервис Medvi, о котором недавно рассказала газета New York Times.

Основатель Мэттью Галлахер из Лос-Анджелеса запустил телемедицинский сервис за два месяца и всего 20 тысяч долларов. Он не собирал большую команду. Вместо этого он поручил искусственному интеллекту почти всю работу: написать код сайта, подготовить тексты, создать рекламные ролики, фотографии «до и после», настроить аналитику и даже обслуживать клиентов. В штате теперь только он сам и его брат Эллиот. Всё остальное — врачи, аптеки, доставка — через подрядчиков.

Сервис Medvi помогает людям быстро и конфиденциально получить современные препараты для снижения веса на основе GLP-1 (агонистов рецептора глюкагоноподобного пептида-1). Пациент проходит онлайн-консультацию, получает рецепт и заказывает лекарство. Результаты впечатляют: первый месяц — 300 клиентов, второй — уже тысяча. За весь 2025 год компания заработала 401 миллион долларов при 250 тысячах клиентов. Чистая прибыль — 16,2 %. В 2026 году оборот приближается к 1,8 миллиарда долларов. Газета New York Times проверила финансовые документы и подтвердила все цифры.

А в Китае такой подход уже превратился в массовое явление. Там стремительно растёт число «компаний одного человека». По последним данным, их больше 16 миллионов. Государство поддерживает тренд грантами, бесплатными помещениями и вычислительными мощностями. Многие соло-предприниматели с помощью искусственного интеллекта запускают полноценные проекты — от создания приложений и маркетинговых платформ до производства коротких видео. Один человек управляет всем процессом, а искусственный интеллект берёт на себя рутину. В результате компании достигают миллионов долларов оборота, не расширяя штат. Это часть национальной стратегии по развитию экономики в эпоху искусственного интеллекта.

Пример Medvi и китайский бум «компаний одного человека» показывают главное: искусственный интеллект радикально повышает производительность. Теперь небольшая команда или даже один основатель может справляться с объёмами, на которые раньше требовались сотни сотрудников. Конечно, такой формат требует новых навыков и иногда вызывает чувство одиночества в работе. Но он открывает двери для тех, кто готов использовать искусственный интеллект как настоящего партнёра.

Будущее бизнеса уже здесь — и оно принадлежит умным одиночкам с мощными инструментами.

каким сервисом он воспользовался для создания сайта?

 
Renat Akhtyamov #:

каким сервисом он воспользовался для создания сайта?

Сейчас все сервисы делают сайты. Думаю, если его проектом рулят агенты, то это Claude.
 

Нетфликс внезапно выложил нейронку, которая редактирует видео, удаляя выбранные объекты. При этом физика процесса объектов меняется, подстраиваясь под новую реальность.

https://github.com/Netflix/void-model