Midjourney и другие нейросети обработки изображений - страница 849
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Как считаешь, каким образом китайцам удалось получить более продвинутые модели при том, что ничего нового в архитектурах нейронок они не создали? (не боятся и не стесняются выкладывать исходники).
Некоторые говорили в этой ветке, что дальнейший рост производительности и качества LLM невозможны без экспоненциального роста затрат электроэнергии и мощности железа, однако видим, что китайцы не только смогли повысить качество, но при этом их модели меньше по размеру, чем у глобальных игроков в сфере ИИ.
Я думаю, что они просто своевременно используют все доступные инструменты.
В OpenSource сегменте есть полно исходников, чтобы уменьшать нагрузку и увеличивать производительность.
Китай всегда славился быстрым развёртыванием технологий. Просто отлажен процесс человеческого труда. И людей там много.
К тому же, наши разрабы тоже немало проводят исследований и делятся на OpenSource площадках.
Предположу, что есть кооперативная работа в этом направлении. Ну и конечно, что-то новое в архитектуры они всё таки привносят.
Но, тут важно. В целом не переплюнут уровень o3, но он ещё не вышел в массы.
Интересно что основное занятие создателей Дипсика - создание МО для трейдинга.
откуда инфа?
DeepSeek (深度求索) — это китайский стартап, основанный тремя сотрудниками Чжэцзянского университета из Ханчжоу. Проект был создан в 2023 году
Трамп: "Выпуск DeepSeek — ИИ от китайской компании, должен стать тревожным сигналом для наших отраслей, о том, что нам нужно предельно сосредоточиться на конкуренции с целью победы"
Альтман:
Альтман:
Корифей индустрии использует слово "впечатляющая". Это же какая-то должна быть объективная оценка.
Открытые исходники модели - что это значит для индустрии ИИ? Вроде, там основная фишка - это способы обучения и набор данных для обучения.
Это значит, что любая компания может развернуть у себя DeepSeek и прикрутить к своему сервису, сайту и т.д.
А у кого есть большие деньги, может включиться в гонку ИИ.
Иными слова, самый передовой OpenSource ИИ - это минимальная планка, от которой будут появляться следующие ИИ.
Все конкуренты в кратчайшие сроки дойдут до этой планки (ведь исходники есть), чтобы двинуться дальше.
Поскольку для обучения требуется примерно 2 месяца, то в марте будет новая мощная волна догоняющих и перегоняющих.
Могла сработать более продуманная технология обучения. Как вариант - использование китайцев вместо индусов)
Это постобучение. До этого еще нужно обучать сырую модель. Косты естественно растут.
Пока что пытаются хорошо "запомнить" обучающую выборку, потому что она изначально не размечена. Вместо индусов решили использовать RL :)
Вместо того чтобы делать постобучение на всех данных, они сделали его на части данных, снизив расходы. В итоге шо получилось, то получилось, как написано в их бумаге.Это значит, что любая компания может развернуть у себя DeepSeek и прикрутить к своему сервису, сайту и т.д.
откуда инфа?