Обсуждение статьи "Нейросети в трейдинге: Сеточная аппроксимация событийного потока как инструмент анализа ценовых паттернов (Окончание)"
Сам придумал такие слова?
Спасибо за новую работу!
Запустил ваш советник в оригинале (логи не считаются). Уровень ошибки STFS 1600+ держится. Это нормально? Или всё-таки нужна нормализация признаков?
И на счёт тайфрейма М1 в последней части статьи вы не опечатались, случаем? Может всё таки H1?
Дмитрий, приветствую!
Спасибо за новую работу!
Запустил ваш советник в оригинале (логи не считаются). Уровень ошибки STFS 1600+ держится. Это нормально? Или всё-таки нужна нормализация признаков?
Добрый день, Владимир.
Уровень ошибки STFS, по большому счету, мало влияет на результативность торговли модели. Мы используем его на начальной стадии обучения, чтобы максимально акцентировать внимание энкодера состояния окружающей среды на признаках, дающих максимальную информативность о будущем движении. Это этап обучения с учителем на псевдо идеальной траектории (Self-Supervised Learning).
На втором этапе — онлай-обучение в тестере стратегий (StudyOnline.mq5) - STFS уже не используется. И мы корректируем параметры модели в зависимости от результативности выполненных торговых операций — обучение с подкреплением (Reinforcement Learning).
Заметил, что при обучении видеокарта простаивает — загрузка всего 5-10%, хотя ресурсов у неё много. Насколько я понял, это из-за того, что данные обрабатываются строго по одному бару (Batch Size = 1).
Хотел бы посоветоваться с вами как с автором:
- Реально ли внедрить параллельный батч (например, 32 паттерна одновременно)? Чтобы видеокарта считала их за один раз, а не по очереди.
- Как это сделать правильно, чтобы не испортить архитектуру вашей библиотеки? Нужно ли лезть в OpenCL код или в библиотеке уже заложено что-то для этого через параметры батчей?
- Не сломается ли логика работы BatchNorm и обучение в целом? Очень не хочется нарушить вашу задумку в плане взаимодействия слоев.
Буду очень благодарен за совет, в какую сторону смотреть. Хочется максимально эффективно использовать железо. Вопросы мои могут быть не совсем корректные, так как я пользуюсь LLM для взаимодействия, но это я думаю вы и так понимаете. Спасибо!
Thank you for the articles!
I'm trying to compile the code in the EEMFlow directory in the zip archive thats linked in your post. But its unclear to me where to find the Neuronet.mqh and Neuronet.cl files. Sorry if this is a stupid question.
Thank you for the articles!
I'm trying to compile the code in the EEMFlow directory in the zip archive thats linked in your post. But its unclear to me where to find the Neuronet.mqh and Neuronet.cl files. Sorry if this is a stupid question.
Hello,
You can find these files in the NeuroNet_DNG directory within the zip file.
Дмитрий, благодарю за обратную связь. Признателен за то, что уделяете внимание.
Заметил, что при обучении видеокарта простаивает — загрузка всего 5-10%, хотя ресурсов у неё много. Насколько я понял, это из-за того, что данные обрабатываются строго по одному бару (Batch Size = 1).
Хотел бы посоветоваться с вами как с автором:
- Реально ли внедрить параллельный батч (например, 32 паттерна одновременно)? Чтобы видеокарта считала их за один раз, а не по очереди.
- Как это сделать правильно, чтобы не испортить архитектуру вашей библиотеки? Нужно ли лезть в OpenCL код или в библиотеке уже заложено что-то для этого через параметры батчей?
- Не сломается ли логика работы BatchNorm и обучение в целом? Очень не хочется нарушить вашу задумку в плане взаимодействия слоев.
Буду очень благодарен за совет, в какую сторону смотреть. Хочется максимально эффективно использовать железо. Вопросы мои могут быть не совсем корректные, так как я пользуюсь LLM для взаимодействия, но это я думаю вы и так понимаете. Спасибо!
Добрый день, Владимир.
Изначально все строилось с акцентом на онлайн-работу в терминале и подобные механизмы не были предусмотрены. Их внедерение потребует значительных правок как в самой библиотеке, так и в программах обучения. В библиотеке прежде всего это связано с размерами буферов данных. При сохранении объема обучаемых параметров потребуется кратное увеличение буферов хранения исходных данных, промежуточных значений и результатов. Кроме того, на стороне программы обучения потребуется создания соответствующего увеличенного набора исходных данных и целевых значений.
Однако в процессе эксплуатации величенные буфера данных будут избыточными. А значит мы приходим к отдельной организации процессов обучения и эксплуатации.
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования
Опубликована статья Нейросети в трейдинге: Сеточная аппроксимация событийного потока как инструмент анализа ценовых паттернов (Окончание):
В статье представлена адаптация фреймворка EEMFlow для построения высокоэффективных торговых моделей средствами MQL5. Рассматриваются алгоритмы оценки MeshFlow с расширенной корреляцией признаков, позволяющие точно анализировать динамику рынка и прогнозировать ценовые потоки. Тестирование подтвердило положительное математическое ожидание, умеренные просадки и высокую эффективность принятия решений.
Полное и детальное описание архитектурного решения обучаемых моделей приведено во вложении, что позволяет воспроизвести и масштабировать подход для дальнейших экспериментов и анализа эффективности.
Работа началась с офлайн-обучения на исторических данных по валютной паре EURUSD с таймфреймом M1 за период с Января 2024 по Июнь 2025 года. На этом этапе модель формировала умение выявлять повторяющиеся рыночные паттерны, анализировать динамику цен и объёмы торгов, а также выявлять взаимосвязи между ключевыми признаками для точного прогнозирования. В результате формировалось внутреннее представление о рынке, объединяющее строгую математическую обработку данных с выявлением закономерностей во временном ряду.
Следующим шагом стала тонкая онлайн-настройка в тестере стратегий MetaTrader 5. Модель адаптировалась к потоку реальных данных, учитывая рыночный шум, колебания ликвидности и резкие ценовые всплески. Такой подход позволял интегрировать накопленный исторический опыт с актуальной рыночной динамикой, обеспечивая своевременные и обоснованные торговые решения.
Финальная проверка проводилась на данных с Июля по Октябрь 2025 года, полностью новых и ранее не использованных в процессе обучения. Все параметры модели сохранялись без изменений, что позволяло объективно оценить её способность к обобщению и адаптации к незнакомым рыночным условиям.
Автор: Dmitriy Gizlyk