Midjourney и другие нейросети обработки изображений - страница 1029
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Ха, щас в телефоне запустил локально гемму3, и она начала писать сову на мкль5
1B версия ничего не стоит, чисто чтобы с телефона собирать саммари данных. Создавать вменяемые вещи может с трудом. 4B и выше на тф будут тормозить. Хотя, если 4B запустится, она хороша (но не в коде).
Не ждите от LLM слишком многого. Они не выполнят за вас проект. Просто помогают в тупых и скучных операциях. Программисты на C/C++ и Питоне вовсю пользуются. Вот решил попробовать. Собираю все локальные модели GGUF максимального размера, которые ещё помещаются в мой VRAM 12Gb, умеющие кодить. Потом буду отсеивать, кто лучше знает MQL5 и его служебные функции.
Codestral-22B (урезанный Mistral)
DeepSeek-Coder-V2-Lite
Gemma-3-12b
Gemma_coder_9B
Meta-Llama-3.1-8B
Qwen3-14B-128K
Qwen-2.5-Coder-7B
Phi-4 (Microsoft)
StarCoder2-15B
WizardCoder-15B
Falcon-7B
CodeLlama-13B
Вот всё, что нашёл.
С выходом Qwen3 всё перевернулось в сфере кодинга, математики и рассуждений.
Хоть 4B модель по запросу на стихи включила режим рассуждения и не выдала рифмы на русском, стоит отдать должное её результатам в бенчмарках по программированию.
Работает быстро. Для тестов с кодом лучше не найти. 4B будет летать. 8B работать сносно. Остальное проверяйте сами на своём железе.
Все версии доступны в LM Studio официально. Гляньте на бенчмарк CodeForce и всё поймёте. Если не MQL5, то на питоне будет хорошо писать. Все нейронки по коду почему-то принципиально затачивают на питон.
P.S. Если не прочтут этот пост, так и будут искать разные нейронки по программированию, не видя перед собой лучшее на сегодня локальное решение.
Попробовал снова написать код модифицированного зигзага с помощью ИИ - никто не справляется.
Вот ии выдал код, посмотри может полезное есть:
TheBloke/openchat-3.5-0106-GGUF тоже может кодить
Взял mradermacher/openchat-3.5-0106-128k-GGUF, контекст 128K вместо 8K.
1B версия ничего не стоит, чисто чтобы с телефона собирать саммари данных. Создавать вменяемые вещи может с трудом. 4B и выше на тф будут тормозить. Хотя, если 4B запустится, она хороша (но не в коде).
Скачал 4b , правда 4бит квант., Заработало на смартфоне, и скорость относительно нормальная, 7токенов в сек... А 1б 15токенов давала,чисто оценить ии брал.
Она в разы лучше. Более того, понимает фото на вход.
Сгенерированные девушки. Миджорни
Разное. Миджорни
С выходом Qwen3 всё перевернулось в сфере кодинга, математики и рассуждений.
Хоть 4B модель по запросу на стихи включила режим рассуждения и не выдала рифмы на русском, стоит отдать должное её результатам в бенчмарках по программированию.
Так они многие программируют, но для MQ5 написано - нужно дообучать. Вот и надо сравнивать в этой узкой специализации.
Работает быстро. Для тестов с кодом лучше не найти. 4B будет летать. 8B работать сносно. Остальное проверяйте сами на своём железе.
Qwen3-14B-128K-UD-Q5_K_XL.gguf умещается в VRAM 12 Gb и работает с 25.45 t/s. Достаточно быстро. Это средняя скорость среди вышеперечисленных мною. DeepSeek-Coder-V2-Lite-Instruct-Q5_K_M.gguf (16B) - самая быстрая, 52.37 t/s.
Все версии доступны в LM Studio официально.
Я использую llama.cpp, она быстрая (native code). Совместим с OpenAI и можно сделать локальный copilot для VSCode, если надо. GGUF загружаю вручную.