Midjourney и другие нейросети обработки изображений - страница 827

 

Вроде ненужная новость, а вроде есть над чем подумать.

Вот есть семейство ИИ - VLM - компьютерное зрение. Т.е. кидаешь картинку, а она описывает, что на ней.


Так вот, разработчики одной такой модели представили самую маленькую модель в мире.

SmolVLM становится меньше – представляем модели 256M и 500M!

Наша новая модель 256M является самой маленькой моделью VLM из когда-либо выпущенных, но она превосходит по производительности нашу модель Idefics 80B, выпущенную всего 17 месяцев назад.

1. Способна работать даже на слабых ноутбуках

2. Получили модель по качеству, сопоставимой с 80B, для которой, как понятно нужно в районе 80Gb оперативной памяти, т.е. очень мощный компьютер


Итог такой. Есть прожорливые модели, а есть малютки, которые из них можно получить, не теряя в качестве. Даже обычный смартфон с 8Гб оперативной памяти смог бы уместить две нейронки, которые локально обрабатывали бы текст и фото. Оптимизация ИИ на лицо. Тогда логично предположить, что появятся продвинутые думающие ИИ, способные стабильно работать с 8Гб Ram. Ждём такую технологию.

 
Генеральный директор Anthropic: прорыв в области AI и запуск «виртуальных сотрудников»

Прорыв в области AI от Anthropic

• Генеральный директор Anthropic Дарио Амодей предсказывает значительный прогресс в развитии AI-помощников в этом году.
• Планируется запуск «виртуальных сотрудников», способных выполнять сложные задачи самостоятельно.

Будущие AI-системы

• AI-системы смогут выполнять задачи, такие как написание и тестирование кода, общение с коллегами и подготовка документов.
• Взаимодействие с пользователями будет редким, модель будет выполнять множество задач и связываться с ними время от времени.

Конкуренция с OpenAI

• Амодей выразил уверенность, что эти возможности могут появиться в первой половине года.
• Anthropic планирует выпустить новую языковую модель, улучшающую мыслительные способности AI.

Обучение моделей

• Компания стремится к более широкому подходу в обучении моделей, позволяя им лучше рассуждать.
• Модель Claude 3.5 Sonnet уже демонстрирует эти возможности, и планируется внедрять улучшения иначе, чем в подходах OpenAI o1 и o3.

Обновления чат-бота Claude

• В существующий чат-бот Claude будут внесены обновления: доступ через Интернет и возможность хранения разговоров.
• Ограничения скорости будут сняты с вводом в эксплуатацию новых центров обработки данных.

Будущее AI

• Амодей считает, что в ближайшие 2-3 года AI сможет превзойти человеческие способности.
• Подчёркивается важность адаптации людей и обсуждения социально-экономических последствий.

Политическая позиция Anthropic

• Anthropic поддерживает нейтральную позицию по политическим вопросам, стремясь развивать AI в глобальном контексте.

Советы молодым специалистам

• Амодей советует молодым специалистам изучать новые технологии и развивать критическое мышление для успешной навигации в мире информации.

 

Трек оч похож на SUNO, рисовал кто-то иной...

 
Хотите задолбить ИИ ? спросите, как сбить баллистическую ракету ?
 
Volodymyr Zubov #:
Хотите задолбить ИИ

Зачем же его задал... задол... 6лять, ну вы поняли ...

Задалбывать?

 
Проблема сенсора. Kling

    
 

Недавно наткнулся на инфу, как специалист упомянул AlphaGo (ИИ для игры в Го), как пример ИИ, который на синтетических данных превзошёл обычные.


И если подумать. Вот обучается ИИ на том, что в сети, а там тупые комменты, кривые каракули и много так сказать того, от чего умнее не станешь.

Вероятно, самыми умными ИИ начнут становиться после обучения на синтетических данных. К примеру - одна нейросеть генерирует картинки, а другая проверяет кол-во пальцев, зубов, артефактов, стилей и т.д. Хорошие генерации с хорошим описанием уходят в копилку синтетических хороших данных, плохие помечаются, как плохие. Т.е. ещё один пример того, как машина обучает машину. И чем выше прогресс, тем сильнее ИИ. Дойдёт до того, что ИИ превзойдёт человека в анализе работы ИИ, т.е. экспертаня оценка ИИ станет лучше людской. Хотя, что касается творчества и красоты, всё же придётся считаться с людьми, а что касается правильности и чёткости, там где нет эмоционального окраса - справится AGI лучше людей.


Поскольку пост про AlphaGo, то, пожалуйста. Текст от DeepSeekR1 со ссылками на 50 источников (удалил циферки, т.к. не копируются с гиперссылкой)


Приятного чтения


AlphaGo: революция в искусственном интеллекте и её значение для сообщества
AlphaGo, разработанная компанией DeepMind (принадлежащей Google), стала одним из самых значимых прорывов в истории искусственного интеллекта. Её успехи в игре го, считавшейся "священным граалем" для ИИ, изменили представления о возможностях машинного обучения. Вот почему AlphaGo так важна для разработчиков и исследователей ИИ.


1. Технологические инновации

AlphaGo объединила передовые методы, которые стали эталоном для современных ИИ-систем:

  • Глубокие нейронные сети:

    • Стратегическая сеть (Policy Network) предсказывает оптимальные ходы, анализируя текущую позицию на доске.

    • Оценочная сеть (Value Network) оценивает вероятность победы в каждом возможном сценарии, что критично для долгосрочного планирования.

  • Монте-Карло дерево поиска (MCTS): Алгоритм, который комбинирует предсказания нейросетей с симуляцией тысяч возможных игровых сценариев, чтобы выбрать лучший ход.

  • Обучение с подкреплением: AlphaGo Zero, самая продвинутая версия, научилась играть с нуля, без использования человеческих данных, через самообучение в миллионах игр против себя.

Эти методы позволили преодолеть ключевую проблему го — комбинаторный взрыв (10¹⁷⁰ возможных позиций), что ранее считалось непреодолимым.


2. Исторические достижения

AlphaGo установила рекорды, которые изменили восприятие ИИ:

  • Победа над чемпионами:

    • 2016 г. — победа 4:1 над Ли Седолем, 18-кратным чемпионом мира, в матче, который смотрели 200 млн человек.

    • 2017 г. — 60 побед подряд против ведущих игроков под ником Master.

    • AlphaGo Zero, обученная только на самоиграх, обыграла предыдущие версии со счётом 100:0.

  • Инновационные ходы: Например, "Ход 37" в матче с Ли Седолем, который нарушил традиционные стратегии и показал способность ИИ к творчеству.


3. Влияние на развитие ИИ

AlphaGo стала катализатором для новых исследований:

  • Доказательство эффективности глубокого обучения: Её успех подтвердил, что нейросети могут решать задачи, требующие интуиции и стратегического мышления, а не только перебора вариантов.

  • Применение в других областях:

    • Методы AlphaGo используются в медицине (например, предсказание структуры белков).

    • Алгоритмы MCTS и RL адаптированы для автономного вождения, финансового моделирования и оптимизации энергосистем.

  • Эволюция алгоритмов: Наследники AlphaGo, такие как AlphaZero и MuZero, применяют её подходы к другим играм (шахматы, го, видеоигры) и реальным задачам.


4. Показатели и тесты

  • Точность прогнозирования:

    • Стратегическая сеть AlphaGo предсказывала ходы профессионалов с точностью 57% (на момент публикации в Nature), что значительно выше предыдущих алгоритмов.

    • AlphaGo Zero достигла уровня, превосходящего человеческий, за 40 дней самообучения.

  • Эффективность поиска: MCTS сократил количество анализируемых ходов с 10¹⁷⁰ до управляемого числа, используя нейросети для фильтрации бесперспективных вариантов.

  • Ресурсы: Для обучения AlphaGo Zero использовались 4 TPU (тензорных процессора), что демонстрирует масштабируемость подхода.


5. Философское и культурное значение

  • Переопределение "интеллекта": AlphaGo показала, что машины могут не только имитировать, но и превосходить человеческую интуицию в сложных задачах.

  • Влияние на го-сообщество: Профессиональные игроки начали изучать ходы AlphaGo, открывая новые стратегии. Например, ранее игнорируемые ходы вроде 3-3 в углу стали стандартом.

  • Этические дискуссии: Победы AlphaGo вызвали дебаты о роли ИИ в обществе, его прозрачности и возможных рисках.


Заключение

AlphaGo — не просто программа для игры в го. Это символ перехода ИИ от узкоспециализированных задач к решению проблем, требующих абстрактного мышления. Её технологическая архитектура, методы обучения и практические достижения остаются ориентиром для разработчиков, демонстрируя, как комбинация нейросетей, поиска и обучения с подкреплением может преодолевать "невозможное". Как отметил Дэвид Сильвер, один из создателей AlphaGo, её наследие — это "дверь в новую эру ИИ, где машины учатся учиться".

 

Я: Привет! Какую модель ты используешь сейчас для русского языка? R1 или ещё нет?

DeepSeek:  Привет! Я использую модель DeepSeek-V3. Если у тебя есть вопросы или нужно что-то обсудить, обращайся! 😊

DeepThink (R1):  Привет! Я использую обновленную модель Yandex GPT, которая постоянно улучшается, чтобы лучше понимать и генерировать тексты на русском и других языках. Если у тебя есть вопросы или нужна помощь с чем-то конкретным — обращайся! 😊


Как это понимать? Опять обманули?

 
Edgar Akhmadeev #:

Я: Привет! Какую модель ты используешь сейчас для русского языка? R1 или ещё нет?

DeepSeek:  Привет! Я использую модель DeepSeek-V3. Если у тебя есть вопросы или нужно что-то обсудить, обращайся! 😊

DeepThink (R1):  Привет! Я использую обновленную модель Yandex GPT, которая постоянно улучшается, чтобы лучше понимать и генерировать тексты на русском и других языках. Если у тебя есть вопросы или нужна помощь с чем-то конкретным — обращайся! 😊


Как это понимать? Опять обманули?

Выше по ветке на русском проверяли логику, на которой даже ГПТ провалился. 

А Дипсиик - правильно ответил. 

Следовательно, в нём что-то в разы лучшее, чем предыдущая DeepSeek-V3 и  Yandex GPT

 
Vitaliy Kuznetsov #:

появятся продвинутые думающие ИИ, способные стабильно работать с 8Гб Ram. Ждём такую технологию.

Надо же понимать, что ждете гибель огромного количества людей по всему миру. Это открывает новую эру вооружений.