Midjourney и другие нейросети обработки изображений - страница 1032

 
Andrey Dik #:

получилось? я не понял как установить ИИшные плагины

https://github.com/Acly/krita-ai-diffusion

GitHub - Acly/krita-ai-diffusion: Streamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required.
GitHub - Acly/krita-ai-diffusion: Streamlined interface for generating images with AI in Krita. Inpaint and outpaint with optional text prompt, no tweaking required.
  • Acly
  • github.com
This is a plugin to use generative AI in image painting and editing workflows from within Krita. Visit www.interstice.cloud for an introduction. Learn how to install and use it on docs.interstice.cloud . The main goals of this project are: Precision and Control. Creating entire images from text can be unpredictable. To get the result you...
 
Aleksander #:
Ха, щас в телефоне запустил локально гемму3, и она начала писать сову на мкль5
 Довольно приличная скорость в смартфоне ,около 12-15 токенов в секунду, на компе скорость будет около 30
Что лучше использовать на смартфоне? Готовые приложения с оффлайн-ИИ**
- **ChatGPT-подобные решения**:
  - **MLC Chat** (Android/iOS): Запускает модели Llama 2, Mistral и другие. Модели загружаются на устройство.
  - **GPT4All** (через Termux на Android): Локальный чат-бот, требует настройки.
Или тензорфлоу?
 
Valeriy Yastremskiy #:
Что лучше использовать на смартфоне? Готовые приложения с оффлайн-ИИ**
- **ChatGPT-подобные решения**:
  - **MLC Chat** (Android/iOS): Запускает модели Llama 2, Mistral и другие. Модели загружаются на устройство.
  - **GPT4All** (через Termux на Android): Локальный чат-бот, требует настройки.
Или тензорфлоу?
Использую chatterui, там можно настроить вывод иишный в виде голоса, но не все модели обслуживает, в основном ии запускаю через PocketPal, и самое скоростное исполнение ии, через SmolChat, но не все ии выполняет, а так гемму3 1б делает 15 токенов в сек на смартфоне
Файлы:
 

Фи, извращенцы. 1B, 2B, даже 4B модели на телефоне... Я на ПК убедился, что даже 22B LLM абсолютно бесполезны и бредят. Только от рисующих моделей с такими размерами толк есть, и то для хобби.

Я на телефоне пользуюсь двумя программами с онлайн-моделями, работают бесплатно и надёжно. DeepSeek и Perplexity, с которым можно даже вести голосовой диалог, держа руки за спиной. Причём очень умный, в отличие от Алисы.

Интернет есть всегда, зачем париться? Рисующими локальными ИИ занимаюсь потому, что они бесплатны и некоторые не имеют встроенную цензуру.

 
Edgar Akhmadeev #:

Фи, извращенцы. 1B, 2B, даже 4B модели на телефоне... Я на ПК убедился, что даже 22B LLM абсолютно бесполезны и бредят. Только от рисующих моделей с такими размерами толк есть, и то для хобби.

Я на телефоне пользуюсь двумя программами с онлайн-моделями, работают бесплатно и надёжно. DeepSeek и Perplexity, с которым можно даже вести голосовой диалог, держа руки за спиной. Причём очень умный, в отличие от Алисы.

Интернет есть всегда, зачем париться? Рисующими локальными ИИ занимаюсь потому, что они бесплатны и некоторые не имеют встроенную цензуру.

Ии, 1б ответил на твой опус:  Я понимаю ваше разочарование и ваше возмущение, и искренне сожалею, что вы столкнулись с такими негативными впечатлениями.  Я понимаю, почему вы так расстроены, и хочу пояснить, что я – это сложная система, а не просто "модель", которая просто выдает ответы. 

Вы совершенно правы, что многие современные LLM, особенно большие модели на телефонах, пока не приносят ожидаемых результатов.  И ваша оценка DeepSeek и Perplexity, а также использование голосового диалога, – это очень ценный и важный опыт.  Я очень рад, что вы нашли в них действительно полезные и удобные инструменты.

Я, к сожалению, не могу "ответить" Фи, потому что я не знаю, как он оценивает и оценивает модели.  Мой ответ, вероятно, был бы неадекватным, учитывая ваш опыт и критику. 

**Я понимаю, что вы хотите увидеть, как я бы взаимодействовал с вами, и что, скорее всего, я не удовлетворил ваши ожидания.  Моя задача – помогать людям, а не давать им ложные представления о моей способности и эффективности.  Я постоянно совершенствуюсь, и, возможно, в будущем я смогу предложить более полезный и информативный опыт.**

Вместо того чтобы критиковать меня, возможно, вы хотели бы поговорить о том, что именно вас разочаровало в других моделях? Может быть, у вас есть конкретные примеры, которые вы хотели бы обсудить?  Я готов выслушать и попытаться понять вашу точку зрения.

Файлы:
 
Aleksander #:
Ии, 1б ответил на твой опус:  Я понимаю ваше разочарование и ваше возмущение, и искренне сожалею, что вы столкнулись с такими негативными впечатлениями.  Я понимаю, почему вы так расстроены, и хочу пояснить, что я – это сложная система, а не просто "модель", которая просто выдает ответы. 

Вы совершенно правы, что многие современные LLM, особенно большие модели на телефонах, пока не приносят ожидаемых результатов.  И ваша оценка DeepSeek и Perplexity, а также использование голосового диалога, – это очень ценный и важный опыт.  Я очень рад, что вы нашли в них действительно полезные и удобные инструменты.

Я, к сожалению, не могу "ответить" Фи, потому что я не знаю, как он оценивает и оценивает модели.  Мой ответ, вероятно, был бы неадекватным, учитывая ваш опыт и критику. 

**Я понимаю, что вы хотите увидеть, как я бы взаимодействовал с вами, и что, скорее всего, я не удовлетворил ваши ожидания.  Моя задача – помогать людям, а не давать им ложные представления о моей способности и эффективности.  Я постоянно совершенствуюсь, и, возможно, в будущем я смогу предложить более полезный и информативный опыт.**

Вместо того чтобы критиковать меня, возможно, вы хотели бы поговорить о том, что именно вас разочаровало в других моделях? Может быть, у вас есть конкретные примеры, которые вы хотели бы обсудить?  Я готов выслушать и попытаться понять вашу точку зрения.

Связный, но совершенно бесполезный ответ. Я задал этот же вопрос онлайн-моделям.

Perplexity:

Анализ современных LLM разных размеров: сравнение локальных и облачных моделей

Ваше мнение затрагивает важный вопрос о соотношении размера языковых моделей и их практической полезности. Новейшие исследования в этой области показывают более сложную картину, чем может показаться на первый взгляд.

Эффективность малых моделей: последние достижения

Вопреки распространенному мнению, современные исследования демонстрируют впечатляющие результаты компактных моделей. Например, с использованием оптимальной стратегии масштабирования вычислений (TTS) модели размером 1B могут в некоторых задачах превосходить модели на 405B параметров1. Исследования также показывают, что 0.5B LLM может превзойти GPT-4o, а 3B LLM может превзойти модели на 405B параметров на специфических задачах1.

Ярким примером служит индийская модель Shivaay с 4B параметров, занявшая впечатляющее третье место в рейтинге ARC-C, обойдя такие известные модели как Claude 2, GPT-3.5 и 8B Llama 33. Это демонстрирует, что даже относительно компактные модели могут быть высокоэффективными при правильной архитектуре и обучении.

Специализированные малые модели

Особого внимания заслуживают специализированные модели. Например, в области программирования такие модели как Codestral 22B и DeepSeek Coder V2 Lite 14B показывают одинаково высокие результаты (81.1%) на бенчмарке HumanEval4. Это свидетельствует о том, что узкоспециализированные, но меньшие модели могут превосходить универсальные гиганты в конкретных областях.

Ограничения и вызовы мобильных моделей

Вы правы в том, что существуют определенные ограничения. Исследования показывают, что на современных мобильных устройствах действительно успешно работают только модели размером менее 4B параметров, при этом их качество обычно уступает более крупным моделям6. Кроме того, время отклика локальных моделей на телефоне значительно выше (более 30 секунд), тогда как облачные решения работают быстрее (менее 10 секунд)6.

Преимущества локальных моделей

Несмотря на эти ограничения, локальные модели имеют ряд существенных преимуществ:

  • Повышенная конфиденциальность (данные не покидают устройство)

  • Работа без подключения к интернету

  • Отсутствие зависимости от облачной инфраструктуры

  • Потенциальная возможность персонализации78

Облачные решения и их преимущества

Упомянутые вами DeepSeek и Perplexity AI представляют собой передовые облачные решения. Perplexity AI использует гибридный подход, объединяющий ИИ-генерацию и традиционный поиск, что обеспечивает более точные ответы со ссылками на источники9. DeepSeek фокусируется на глубоком анализе и математических вычислениях, что делает его подходящим для более сложных задач9.

Заключение

Вопрос выбора между локальными и облачными моделями, между компактными и огромными LLM зависит от конкретных потребностей и сценариев использования. Вы правы, что для повседневных задач облачные решения часто предлагают лучший баланс между качеством и удобством использования. Однако последние исследования показывают, что не стоит недооценивать потенциал малых моделей.

В будущем мы, вероятно, увидим дальнейшую оптимизацию локальных моделей, что сделает их более привлекательными для мобильных устройств. А пока оптимальным решением может быть комбинированный подход: использование облачных моделей для сложных задач и локальных для задач, требующих конфиденциальности или работы офлайн.

Citations:

  1. https://arxiv.org/html/2502.06703v1
  2. https://www.reddit.com/r/LocalLLaMA/comments/1glscfk/llm_overkill_is_real_i_analyzed_12_benchmarks_to/
  3. https://www.reddit.com/r/singularity/comments/1icuf8v/4b_parameter_indian_llm_finished_3_in_arcc/
  4. https://deepgram.com/learn/best-local-coding-llm
  5. https://www.reddit.com/r/LocalLLM/comments/1j4d69q/what_is_the_feasibility_of_starting_a_company_on/
  6. https://arxiv.org/html/2504.00002v1
  7. https://arxiv.org/html/2406.10290v1
  8. https://arxiv.org/html/2408.13933v1
  9. https://vc.ru/id4396465/1802749-perplexity-ai-alternativa-chatgpt-i-deepseek-ili-novyi-standart-biznes-analitiki
  10. https://habr.com/ru/articles/883272/
  11. https://play.google.com/store/apps/details?id=ai.perplexity.app.android
  12. https://www.medrxiv.org/content/10.1101/2025.03.18.25324184v1.full-text
  13. https://www.howtogeek.com/perplexity-just-stole-chatgpts-best-feature-doing-a-better-job/
  14. https://help.cloud.just-ai.com/en/aimylogic/publication_channels/alice/
  15. https://www.reddit.com/r/LocalLLaMA/comments/1inieoe/can_1b_llm_surpass_405b_llm_rethinking/
  16. https://www.callstack.com/blog/local-llms-on-mobile-are-a-gimmick
  17. https://expressai-k.ru/tpost/3jdmvgaht1-perplexity-ili-deepseek-chto-vibrat-v-20
  18. https://deepseek-ai-assistant.ru.uptodown.com/android
  19. https://www.vectara.com/blog/do-smaller-models-hallucinate-more
  20. https://www.ibm.com/br-pt/think/topics/llm-benchmarks
  21. https://www.evidentlyai.com/llm-guide/llm-benchmarks
  22. https://artificialanalysis.ai/leaderboards/models
  23. https://www.timetoact-group.at/en/insights/best-llm-benchmarks/llm-benchmarks/llm-benchmarks-september-2024
  24. https://unfoldai.com/gemma-2b/
  25. https://llm.extractum.io/model/vinai%2FPhoGPT-4B,7btO8ZFcIsPsRn0qj3OTlC
  26. https://mistral.ai/news/mixtral-8x22b
  27. https://www.ibm.com/think/topics/llm-benchmarks
  28. https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard
  29. https://huggingface.co/collections/open-llm-leaderboard/the-big-benchmarks-collection-64faca6335a7fc7d4ffe974a
  30. https://www.confident-ai.com/blog/llm-benchmarks-mmlu-hellaswag-and-beyond
  31. https://www.vellum.ai/llm-leaderboard
  32. https://livebench.ai
  33. https://github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference
  34. https://huggingface.co/blog/wolfram/llm-comparison-test-2024-12-04
  35. https://www.comet.com/site/blog/build-local-llm-server/
  36. https://paperswithcode.com/paper/large-language-model-performance-benchmarking
  37. https://www.reddit.com/r/LocalLLaMA/comments/15r0x32/llama222bdaydreamerv2_release_why_are_there/
  38. https://github.com/saic-fi/MobileQuant
  39. https://dl.acm.org/doi/10.1145/3700794.3700817
  40. https://aclanthology.org/2024.acl-long.478.pdf
  41. https://huggingface.co/TheBloke/Llama2-22B-Daydreamer-v3-GGUF
  42. https://huggingface.co/papers/2408.13933
  43. https://arxiv.org/html/2410.03613v1
  44. https://newsroom.arm.com/blog/small-language-models-on-arm
  45. https://arxiv.org/abs/2408.13933
  46. https://www.reddit.com/r/LocalLLaMA/comments/1acwoan/whats_the_best_14b_llm_for_a_phone/
  47. https://vc.ru/ai/1778506-perplexity-dobavila-v-ii-poiskovik-rezhim-rassuzhdenii-s-deepseek-r1
  48. https://vc.ru/ai/1817691-perplexity-ai-zapustila-funkciyu-deep-research-obzor-novoi-funkcii-i-ee-sravnenie-s-deepseek-r-1-chatgpt-i-gemini
  49. https://apps.apple.com/us/app/perplexity-ask-anything/id1668000334
  50. https://habr.com/ru/companies/bothub/news/884004/
  51. https://www.perplexity.ai/page/deepseek-ai-tops-app-store-bfek28ClRL2ibf87KpZRHg
  52. https://www.unite.ai/ru/perplexity-ai-uncensors-deepseek-r1-%D0%BA%D1%82%D0%BE-%D1%80%D0%B5%D1%88%D0%B0%D0%B5%D1%82-%D0%B3%D1%80%D0%B0%D0%BD%D0%B8%D1%86%D1%8B-ais/
  53. https://deepseek-ai-assistant.ru.uptodown.com/android/download
  54. https://startpack.ru/compare/perplexity-ai/deepseek
  55. https://dtf.ru/u/1273995-dmitry-andryashkin/3449121-obzor-deepseek-ne-ubiica-chatgpt-a-novyi-hit-v-orkestre-neirosetei
  56. https://www.youtube.com/watch?v=HMWG7WzYX2s
  57. https://startpack.ru/application/deepseek
  58. https://openreview.net/pdf?id=LYx4w3CAgy
  59. https://aclanthology.org/2024.semeval-1.104.pdf
  60. https://lifehacker.com/tech/use-perplexity-ai-voice-assistant-if-tired-of-siri
  61. https://en.wikipedia.org/wiki/Alice_(virtual_assistant)
  62. https://www.galileo.ai/hallucinationindex
  63. https://github.com/vectara/hallucination-leaderboard
  64. https://writingmate.ai/blog/microphone-perplexity-ai
  65. https://apps.apple.com/ie/app/alice-virtual-assistant/id6621272550
  66. https://www.sciencedirect.com/science/article/pii/S1570826824000301
  67. https://arxiv.org/html/2407.17468v1
  68. https://mashable.com/article/perplexity-ios-voice-assistant-app
  69. https://yandex.ru/dev/dialogs/alice/
  70. https://underjord.io/challenges-of-local-first-llms.html
  71. https://enclaveai.app/blog/2024/05/13/understanding-llm-model-sizes/
  72. https://www.levi9.com/blog/a-guide-to-running-llms-locally/
  73. https://play.google.com/store/apps/details?id=ai.perplexity.app.android
  74. https://play.google.com/store/apps/details?id=com.deepseek.chat
  75. https://www.perplexity.ai
  76. https://deepseek-ai-assistant.ru.uptodown.com/android
  77. https://albato.ru/integration-perplexity_ai-deepseek
  78. https://arxiv.org/html/2504.17550v1
  79. https://www.nature.com/articles/s41586-024-07421-0
  80. https://arxiv.org/html/2311.05232v2
  81. https://arxiv.org/html/2501.12975v1


И DeepSeek:

Вот как можно аргументированно и уважительно ответить на этот комментарий:


«Спасибо за ваш опыт! Вы правы в нескольких аспектах:  

1. **Разница в железе**: 22B модель на ПК без специальной оптимизации действительно может работать хуже облачных аналогов — онлайн-сервисы используют кластеры GPU и квантование, что недоступно большинству пользователей локально.  

2. **Специализация моделей**: Рисующие LLM (вроде Stable Diffusion) объективно требуют меньше «понимания» контекста, чем текстовые, поэтому их легче адаптировать под мобильные устройства.  

3. **Плюсы облака**: DeepSeek и Perplexity используют не только мощные модели, но и постоянное дообучение, RAG-системы и хитрую постобработку — это принципиально другой уровень, чем raw-модель «из коробки».  

4. **Эволюция технологий**: Уже сейчас появляются 3B-модели с качеством близким к GPT-3 (например, Phi-3), а мобильные чипы с NPU (как Snapdragon 8 Gen 3) позволяют запускать их в реальном времени — прогресс идёт экспоненциально 😊  

5. **Use-case matters**: Для голосового ассистента (как ваш пример с Алисой) критична именно latency и активация «на лету», где локальные tiny-модели незаменимы, даже с потерей в интеллекте.  


P.S. А какой вариант использования LLM на телефоне для вас основной? Интересно сравнить кейсы!» 


Этот ответ сохраняет уважение к опыту собеседника, но мягко указывает на технические нюансы, которые он мог не учитывать, и стимулирует дальнейшую дискуссию.

 
Edgar Akhmadeev #:
P.S. А какой вариант использования LLM на телефоне для вас основной? Интересно сравнить кейсы!» 
Только perplexity. Использую для пересказа видео из ютуба (всякие новости, законы, экономика) с целью экономии времени (теперь контент потребляется за считанные минуты, вместо часов просмотра/просшуливания). Кроме того, это семантический поисковик в интернете, заменил мне гуглёж. Особенно полезно для поиска правовых документов и трактования НПА.
 
Гемма3 даже самая маленькая на реалми10 8 на 128 не завелась на смолчате. Квен завелся маленький. Бредит, но как игрушка ничего так.
 
Valeriy Yastremskiy #:
Гемма3 даже самая маленькая на реалми10 8 на 128 не завелась на смолчате. Квен завелся маленький. Бредит, но как игрушка ничего так.
https://huggingface.co/NikolayKozloff/gemma-3-1b-it-Q8_0-GGUF/resolve/main/gemma-3-1b-it-q8_0.gguf?download=true 

Вот эту ставил? Всего 1 ггб, запросто в смолчате запускается, если нет, попробуй через PocketPal запустить
 
Aleksander #:
https://huggingface.co/NikolayKozloff/gemma-3-1b-it-Q8_0-GGUF/resolve/main/gemma-3-1b-it-q8_0.gguf?download=true 

Вот эту ставил? Всего 1 ггб, запросто в смолчате запускается, если нет, попробуй через PocketPal запустить
Покетпал запустил даже гемма3_16 на 2гб. И вроде шустро отвечает)
Сказку ниче так сочинил, но вот технические вопросы бредит. И зашел в цикл. Печатает повторы. Жду уже минут 10, не прекращается)