Midjourney и другие нейросети обработки изображений - страница 1028

Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Вот ответ ии, вроде хоень вышла:
Сид Зиньпинь не читает, только картинки смотрит.
Попробовал снова написать код модифицированного зигзага с помощью ИИ - никто не справляется.
Сид Зиньпинь не читает, только картинки смотрит.
Не ждите от LLM слишком многого. Они не выполнят за вас проект. Просто помогают в тупых и скучных операциях. Программисты на C/C++ и Питоне вовсю пользуются. Вот решил попробовать. Собираю все локальные модели GGUF максимального размера, которые ещё помещаются в мой VRAM 12Gb, умеющие кодить. Потом буду отсеивать, кто лучше знает MQL5 и его служебные функции.
Codestral-22B (урезанный Mistral)
DeepSeek-Coder-V2-Lite
Gemma-3-12b
Gemma_coder_9B
Meta-Llama-3.1-8B
Qwen3-14B-128K
Qwen-2.5-Coder-7B
Phi-4 (Microsoft)
StarCoder2-15B
WizardCoder-15B
Falcon-7B
CodeLlama-13B
Вот всё, что нашёл.
Сяоми Мимо
Вышла бесплатная нейронка. 7B параметров. В тестах выше, чем 32B конкурентов.
GitHub - XiaomiMiMo/MiMo: MiMo: Unlocking the Reasoning Potential of Language Model – From Pretraining to Posttraining
Alibaba выпустили новые версии Qwen2.5 Omni
https://github.com/QwenLM/Qwen2.5-Omni
Мультимодальная нейросеть, способная видеть (картинки, видео) и слышать, а также говорить.
DeepSeek выпускает заточенную на математику нейронку.
deepseek-ai/DeepSeek-Prover-V2-671B · Hugging Face
Мы представляем DeepSeek-Prover-V2, большую языковую модель с открытым исходным кодом, предназначенную для формального доказательства теорем в Lean 4, с данными инициализации, собранными с помощью конвейера рекурсивного доказательства теорем на базе DeepSeek-V3. Процедура обучения «холодному старту» начинается с того, что DeepSeek-V3 предлагается разбить сложные задачи на ряд подцелей. Доказательства решенных подцелей синтезируются в цепочку мыслей в сочетании с пошаговыми рассуждениями DeepSeek-V3, чтобы создать первоначальный холодный старт для обучения с подкреплением. Этот процесс позволяет нам интегрировать как неформальные, так и формальные математические рассуждения в единую модель.
Результирующая модель, DeepSeek-Prover-V2-671B, достигает высочайшей производительности в доказательстве нейронных теорем, достигая 88,9$% в тесте MiniF2F и решая 49 из 658 задач из PutnamBench.
Доказательства, сгенерированные DeepSeek-Prover-V2 для набора данных miniF2F, доступны для скачивания