MetaEditor, Open AI и ChatGPT - страница 10

 
Edgar Akhmadeev #:

Локальная нейронная модель может работать как чат или как сервер. Вы подключаетесь к серверу через API и JSON.

Я рекомендую ollama или llama.cpp как самые быстрые и простые (на c++, а не на python), а также наиболее адаптированные для GGUF.

LMStudio - самый удобный интерфейс для чата.

Спасибо, что порекомендовали LMStudio. Мне она понравилась.