Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Есть проблема с onyx lib есть идеи?
При установке Onyx возникла ошибка
ERROR: Не удалось найти версию, удовлетворяющую требованию onyx (из версий: 0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ERROR: Не найдено подходящего дистрибутива для onyx
затем при запуске t2fonnx
импортировать onyx
Есть ли проблема с Onyx lib?
При установке Onyx возникла ошибка
ERROR: Не удалось найти версию, удовлетворяющую требованию onyx (из версий: 0.0.5, 0.0.17, 0.0.19, 0.0.20, 0.0.21, 0.1, 0.1.1, 0.1.3, 0.1.4, 0.1.5, 0.2, 0.2.1, 0.3, 0.3.2, 0.3.3, 0.3.4, 0.3.5, 0.3.6, 0.3.7, 0.3.8, 0.3.9, 0.3.10, 0.3.11, 0.3.12, 0.4, 0.4.1, 0.4.2, 0.4.4, 0.4.5, 0.4.6, 0.4.7, 0.5, 0.6.1, 0.6.2, 0.6.3, 0.6.4, 0.7.3, 0.7.4, 0.7.5, 0.7.6, 0.7.7, 0.7.8, 0.7.10, 0.7.11, 0.7.12, 0.7.13, 0.8.5, 0.8.7, 0.8.10, 0.8.11)
ОШИБКА: Не найдено подходящего дистрибутива для onyx
затем при запуске t2fonnx
импортировать onyx
Здравствуйте, спасибо за статью. Отличное описание того, как построить ML-модель и включить ее в советник!
Я попытался воспроизвести ваши результаты, но у меня возникли некоторые проблемы. Я надеялся, что вы сможете помочь мне понять, почему.
Я тщательно следовал статье, но в итоге получил радикально разные результаты в тестере стратегий. Я понимаю, что у этих алгоритмов есть какие-то случайные особенности, но меня все равно удивляет разница. Я также тщательно следил за тем, чтобы использовать одни и те же временные периоды, чтобы, по крайней мере, мои тренировочные и тестовые данные были одинаковыми для построения модели, а мой бэктест в MT5 проводился за тот же период. Я получил очень разные результаты.
Я попытался определить возможные причины, и мне кажется, что самое интересное различие начинается во время построения модели. Мои функции потерь показывают, что вы достигли гораздо лучшего обобщения, когда смотрели на производительность на тестовых/оценочных данных. Я включил их в конец этого сообщения.
Можете ли вы предположить возможные причины этого? Может быть, модель настолько хрупкая, что это не является неожиданностью?
Моя последняя попытка воспроизвести модель заключалась в простом копировании вашего окончательного кода Python, вставке некоторых вызовов Matplotlib для создания графиков потерь, но я получил практически те же результаты. Не могли бы вы подсказать, как мне лучше воспроизвести ваши результаты?
Спасибо
Любой проект машинного обучения состоит из трех этапов:
Использование ONNX моделей в мкл решает вопрос с внедрением. Правда не всех моделей и не совсем просто.
Обучение и оптимизация моделей решается отдельным процессом в Питоне.
Но из всех вышеперечисленных, первый этап - самый трудоемкий, сильно творческий и самый важный. И как раз его на мкл реализовать пока невозможно. Не считаем же примитивное шкалирование за препроцессинг. А народная мудрость гласит: "Мусор на входе - мусор на выходе". Слишком много нужно дополнительно разработать и внедрить в МКЛ для полноценного использования МО только на МКЛ. Нельзя объять необъятное, тем более, что оно постоянно расширяется.
Поэтому для выполнения препроцесса либо делать его в другом ЯП (кто какой освоил R/Python/Julia и т.д.) либо пробовать конвертировать и его в ONNX.
Польза от внедрения ONNX пока только в том, что научимся конвертировать, создавать, упрощать и оптимизировать модели ONNX. Может в будущем пригодится.
Лучше и не скажешь, все точно и по делу
Перенести препроцессинг в МТ не проблема, очень хочется протестировать систему в МТ тестере, в питоне/R нужно свой тестер писать, чревато ошибками.
тестеров уже полно, провереных и в R и piton
А вот перенести препроцесинг это как раз проблема, препрцесинг это не банальное шкалирование или стохастик посчитатьЯ попытался определить возможные причины, и мне кажется, что самое интересное различие начинается во время построения модели. Мои функции потерь показывают, что вы достигли гораздо лучшего обобщения, когда смотрели на производительность на тестовых/оценочных данных. Я включил их в конец этого сообщения.
Можете ли вы предположить возможные причины этого? Может быть, модель настолько хрупкая, что это не является неожиданностью?
Моя последняя попытка воспроизведения заключалась в простом копировании вашего окончательного кода Python, вставке некоторых вызовов Matplotlib для создания графиков потерь, но я получил практически те же результаты. Не могли бы вы подсказать, как мне лучше воспроизвести ваши результаты?
Спасибо
Столкнулся с той же проблемой и здесь.
Может ли кто-нибудь помочь, пожалуйста?
Столкнулся с той же проблемой и здесь.
Может ли кто-нибудь помочь, пожалуйста?
Продолжаю расследование проблемы, с которой столкнулся я (вероятно, и другие тоже); и обновляю информацию о своих выводах.
Прежде всего, большое спасибо MetaQuotes (автору) за то, что поделился этой подробной статьей. Я узнаю много нового в своем стремлении к торговле ML.
Запустив оригинальные onnx-файлы из статьи на моем MetaQuates-Demo счете, мне удалось воспроизвести те же результаты. Однако при повторном обучении модели onnx с помощью прилагаемого файла ONNX.eurusd.H1.120.Training.py:
модель (onnx прилагается: ) набирает очки:
, а также результаты бэктеста 1Jan2023-26Mar2023: "backtest results.png"
Я переобучил прилагаемый файл ONNX.eurusd.H1.120.Training.py следующим образом:
модель (onnx прилагается:) набирает очки:
и результаты бактеста за 1 января2023-26 марта2023 прилагаются: "bacttest result2.png"
Итак, исходя из вышеприведенных упражнений, я полагаю, что модель, используемая для получения конечного результата из статьи, скорее всего, не обучалась бы со следующими датами?
Буду признателен, если кто-нибудь прокомментирует это.