Опубликована статья Нейросети в трейдинге: Иерархический двухбашенный трансформер (Hidformer):
Автор: Dmitriy Gizlyk
Hello Dmitriy,
According to the OnTesterDeinit() the code should in the Tester mode (ie. in the StrategyTester) save down NN files.
//+------------------------------------------------------------------+ //| TesterDeinit function | //+------------------------------------------------------------------+ void OnTesterDeinit() { //--- int total = ArraySize(Buffer); printf("total %d", MathMin(total, MaxReplayBuffer)); Print("Saving..."); SaveTotalBase(); Print("Saved"); } //+------------------------------------------------------------------+
This doesnt happen. Also this OnTesterDeinit() doesnt get called it seems. Since i dont see any of the print statements.
Is this due to an update of MQL5? Or why does your code not save files anymore?
Hello Dmitriy,
According to the OnTesterDeinit() the code should in the Tester mode (ie. in the StrategyTester) save down NN files.
This doesnt happen. Also this OnTesterDeinit() doesnt get called it seems. Since i dont see any of the print statements.
Is this due to an update of MQL5? Or why does your code not save files anymore?
Dear Andreas,
OnTesterDeinit runs only in optimization mode. Please refer to the documentation at https://www.mql5.com/en/docs/event_handlers/ontesterdeinit.
We do not save models in the tester because this EA does not study them. It is necessary to check the effectiveness of previously studied model.
Best regards,
Dmitriy.
- www.mql5.com
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования
Опубликована статья Нейросети в трейдинге: Иерархический двухбашенный трансформер (Hidformer):
Предлагаем познакомиться с фреймворком иерархического двухбашенного трансформера (Hidformer), который был разработан для прогнозирования временных рядов и анализа данных. Авторы фреймворка предложили несколько улучшений к архитектуре Transformer, что позволило повысить точность прогнозов и снизить потребление вычислительных ресурсов.
Особенно востребованными в финансовом прогнозировании стали нейросетевые модели, способные учитывать временную структуру данных и выявлять скрытые паттерны. Однако, традиционные нейросетевые подходы имеют ограничения, связанные с высокой вычислительной сложностью и недостаточной интерпретируемостью результатов. В связи с этим, в последние годы внимание исследователей привлекли архитектуры на основе механизмов внимания, обеспечивающие более точный анализ временных рядов и финансовых данных.
Наибольшую популярность получили модели на основе архитектуры Transformer и её модификаций. В работе "Hidformer: Transformer-Style Neural Network in Stock Price Forecasting" представлена одна из таких модификаций, получившая название Hidformer. Эта модель разработана специально для анализа временных рядов и ориентирована на повышение точности прогнозирования за счет оптимизированных механизмов внимания, эффективного выявления долгосрочных зависимостей и адаптации к спецификам финансовых данных. Основное преимущество Hidformer заключается в способности учитывать сложные временные зависимости, что особенно важно для анализа фондового рынка, где цены активов зависят от множества факторов.
Автор: Dmitriy Gizlyk