Обсуждение статьи "Python + API LLM + MetaTrader 5: реальный опыт построения автономного торгового бота"

 

Опубликована статья Python + API LLM + MetaTrader 5: реальный опыт построения автономного торгового бота:

Статья описывает создание MVP-прототипа автономного торгового бота для MetaTrader 5, использующего большие языковые модели (LLM) через API OpenRouter для анализа рынка и принятия торговых решений. Скрипт на Python получает исторические данные OHLCV, отправляет их в LLM для технического анализа на основе уровней поддержки/сопротивления и паттернов Price Action, после чего автоматически размещает ордера с заданными стоп-лоссом и тейк-профитом.

Большинство трейдеров и не подозревают, что ИИ способен:

  • находить уровни,
  • определять свечные модели,
  • распознавать тренды,
  • сравнивать прошлые участки графика,
  • давать осознанные выводы,
  • анализировать несколько таймфреймов,
  • исправлять собственные ошибки при оптимизации промпта.

Это не индикатор и не алгоритм. Это интеллектуальная надстройка, которую можно научить вашей личной торговой системе.

И самое главное — её не нужно обучать программированию. Она понимает обычный человеческий язык.

Автор: Oleg Doykov

 
По названию я подумал, что будет показано обучение локальной модели, а тут опять завязка на чужие готовые модели и сервера, которые вовсе не на таймсерии заточены. В общем, слово "автономный" (то бишь самодостаточный) в названии лишнее.
 
На мой взгляд современные модели имеют обширную “картину мира”, знают кучу стратегий, понимают временные ряды и не требуют дообучения. Правильно определяют уровни поддержки и сопротивления, максимумы и минимумы, это видно из “рассуждений” LLM.  По API можно выбрать мощные модели, не привязываясь к локальному железу. 
Stanislav Korotky #:
опять завязка на чужие готовые модели и сервера

Где можно почитать про “готовые модели и сервера”? Поделитесь пожалуйста.  Мне как раз попадаются решения с дообучением локальных LLM. 


Stanislav Korotky #:
слово "автономный"
“Автономный” в данном контексте - не требующий участия трейдера. Бот сам анализирует, принимает решение и открывает ордер.
 
Oleg Doykov #:
На мой взгляд современные модели имеют обширную “картину мира”, знают кучу стратегий, понимают временные ряды и не требуют дообучения. Правильно определяют уровни поддержки и сопротивления, максимумы и минимумы, это видно из “рассуждений” LLM.  По API можно выбрать мощные модели, не привязываясь к локальному железу. 

Где можно почитать про “готовые модели и сервера”? Поделитесь пожалуйста.  Мне как раз попадаются решения с дообучением локальных LLM. 

Я как раз написал, что в данной статье используются готовые модели и сервера.

В обсуждении другой статьи (где модель скачивается и запускается локально), где было и ваше участие, я приводил ссылку на сравнительное исследование общих языковых моделей (которые на таймсериях не обучались) и обученных целенаправленно на таймсериях. Результат не в пользу больших языковых моделей.

Из моего общения с общими LLM следует, что они очень любят приврать в фактической части ответа, особенно связанной с числовыми показателями.

Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель
Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель
  • 2025.11.12
  • www.mql5.com
Статья исследует революционную интеграцию больших языковых моделей (LLM) с торговой платформой MetaTrader 5, где AI не просто прогнозирует цены, а принимает автономные торговые решения, анализируя контекст рынка подобно опытному трейдеру. Автор раскрывает фундаментальное отличие LLM от классических моделей машинного обучения вроде CatBoost — способность к метапознанию и саморефлексии, что позволяет системе учиться на собственных ошибках и улучшать стратегию.
 
Stanislav Korotky #:

Я как раз написал, что в данной статье используются готовые модели и сервера.

В обсуждении другой статьи (где модель скачивается и запускается локально), где было и ваше участие, я приводил ссылку на сравнительное исследование общих языковых моделей (которые на таймсериях не обучались) и обученных целенаправленно на таймсериях. Результат не в пользу больших языковых моделей.

Из моего общения с общими LLM следует, что они очень любят приврать в фактической части ответа, особенно связанной с числовыми показателями.

Здравствуйте. Скоро выйдет моя статья про файтюн локальной Ollama на 1000 сделках. Удивительно, но результаты на синтетических искусственных сэмплах идеальных сделок в разы лучше, чем на настоящих реальных сделках. 

Также будет третья часть - с заменой встроенной модели на собственную доработанную для финансов архитектуру языкового трансформера. 

В целом они неплохо торгуют, с галлюцинациями борюсь снижением температуры и ещё делаю версию с новой фичей MIT для языковых моделей - SEAL, когда делается самообучающийся пайплайн,  и прямо через инструкции в запросах к модели идет доообучение, длина контекста немного мешает, но зато в контексте можно хранить сжатый опыт сети - требуя его из её же ответов. LoRa адаптер также можно включить и дообучить именно на финансовых данных. Опять же - сильно мешает необходимость крутого железа для больших моделей... 

Еще классно идет Грок 4.1 в версии с 1 млн. токенов контекста, вот это отличный размер окна, туда можно загрузить кучу сделок и данных, вопрос упирается в стоимость токенов, недешевое это удовольствие) 
 
Stanislav Korotky #:
В обсуждении другой статьи (где модель скачивается и запускается локально), где было и ваше участие, я приводил ссылку на сравнительное исследование общих языковых моделей (которые на таймсериях не обучались) и обученных целенаправленно на таймсериях. Результат не в пользу больших языковых моделей.

Станислав, спасибо за статью, нашел, очень полезно. Как то пропустил, видимо поленился переводить.


В это статье исследуется проблема классического прогнозирования временных рядов. Временные ряды это определенный, узкий сектор для решения задач трейдинга. 

Авторы приходят к выводу, что для классического прогнозирования временных рядов LLM сейчас почти не дают пользы по качеству, при этом сильно увеличивают вычислительные затраты, и тот же уровень (или лучше) можно получить гораздо более простыми архитектурами без языковой модели.

Однако авторы так же считают, что LLM стоит использовать не для “голого” прогноза временных рядов, а там, где вместе с рядами есть текстовый контекст и нужны рассуждения на естественном языке.
Мультимодальные задачи “тайм-серии + текст”: когда модель должна учитывать новости, описания событий, социальный контекст, текстовые инструкции и т.п. (time series reasoning, social understanding, financial reasoning). 

Прямо на первой странице:


time series reasoning

Перевод:

На самом деле, недавние работы указывают на множество интересных и многообещающих способов взаимодействия языка и временных рядов, таких как рассуждения о временных рядах [25, 7, 45, 42, 37], социальное понимание [6] и финансовые рассуждения [36, 20].

Я как раз про это, про мультимодальность.

Моя гипотеза состоит в том, что Современная LLM самодостаточный “организм” который “знает все”, в том числе и трейдинг. 
Задача - сузить “картину мира” языковой модели для решения определенной задачи. Воспитать трейдера.
Да, выглядит как “из пушки по воробьям”. 

Stanislav Korotky #:
Из моего общения с общими LLM следует, что они очень любят приврать в фактической части ответа, особенно связанной с числовыми показателями.

О да. Здесь есть на чем подумать. Выбрать подходящую модель, сформулировать стратегию в промпте, поставить в рамки, не простая задача. Обычно модели из лидербордов дают адекватнее ответы. Осмысленно анализируют и принимают решения.

Соглашусь с комментарием:

Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий

Обсуждение статьи "Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель"

Edgar Akhmadeev, 2025.11.13 00:33

Я начал разрабатывать эту тему не так давно. OpenAI API пишу на чистом MQL5. И сервер для модели - llama.cpp.

Надо модели давать максимально математически чёткие инструкции, требовать чётких ответов, без воды. Снижать температуру до предела (0-0.2), чтобы не фантазировала. Выбирать максимально большие локальные модели, какие тянет система (на моём VRAM 12 Gb - до 15B, а с небольшим замедлением - до 30B). Тестировать и выбирать лучшую (а их очень много). Пока занимаешься этим, идёт прогресс в моделях, появляются маленькие умные модели. Затем можно дообучать модель (LoRA). Если, не дай бог, появится подозрение на потенциальную прибыльность проекта, можно перейти на платные большие онлайн-модели. Или хотя бы сделать апгрейд компьютера на 2 GPU с 24 Gb и много памяти.

Работы - выше крыши. Посмотрим. Пробуем работать с моделями, учитывая их милые особенности.



Обсуждение статьи "Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель"
Обсуждение статьи "Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель"
  • 2025.11.12
  • www.mql5.com
Опубликована статья Быстрая интеграция большой языковой модели и MetaTrader 5 (Часть I): Создаем модель : Автор: Yevgeniy Koshtenko...
 
Yevgeniy Koshtenko #:
Здравствуйте. Скоро выйдет моя статья про файтюн локальной Ollama на 1000 сделках. Удивительно, но результаты на синтетических искусственных сэмплах идеальных сделок в разы лучше, чем на настоящих реальных сделках. 

Также будет третья часть - с заменой встроенной модели на собственную доработанную для финансов архитектуру языкового трансформера. 

В целом они неплохо торгуют, с галлюцинациями борюсь снижением температуры и ещё делаю версию с новой фичей MIT для языковых моделей - SEAL, когда делается самообучающийся пайплайн,  и прямо через инструкции в запросах к модели идет доообучение, длина контекста немного мешает, но зато в контексте можно хранить сжатый опыт сети - требуя его из её же ответов. LoRa адаптер также можно включить и дообучить именно на финансовых данных. Опять же - сильно мешает необходимость крутого железа для больших моделей... 

Еще классно идет Грок 4.1 в версии с 1 млн. токенов контекста, вот это отличный размер окна, туда можно загрузить кучу сделок и данных, вопрос упирается в стоимость токенов, недешевое это удовольствие) 

Интересное исследование. С нетерпением жду продолжения сезона )). 

Датасет с искусственными сделками, что то новенькое.

Токены vs Железо.

[Удален]  
Кто бы написал хороший бектестер под ллмовские апи, а то пока что непонятно что обсуждать :)
 
Maxim Dmitrievsky #:
Кто бы написал хороший бектестер под ллмовские апи, а то пока что непонятно что обсуждать :)
До тестера рано или поздно дело дойдёт, но работать он будет почти в реальном времени. С моим железом на минутках анализ проходит за 12-13 сек. При скорости 19.25 tps.
 

По теме: 5 LLM автономно торговали 8 месяцев по рыночным данным и новостям (подход обучения моделей не раскрывается).

Автономная торговля 5-ю LLM на протяжении 8 месяцев