Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3351

 

Форум по трейдингу, автоматическим торговым системам и тестированию торговых стратегий

Обсуждение статьи "Тесты на перестановку Монте-Карло в MetaTrader 5"

fxsaber, 2023.12.19 19:25

Используемый алгоритм перестановки.

  1. Создается массив логарифмированных приращений (между соседними тиками) bid/ask.
  2. Этот массив перемешивается. Причем сильно.
  3. Создается новый массив тиков через приращения из п.2.

Такой подход убивает напрочь все закономерности (если они были), что были в исходном ряде. Т.к. на выходе получаем случайное блуждание.


Нельзя так делать.

 
Скорее всего СанСаныч использует приращения посчитанные от 0 бара (можно назвать кумулятивным приращением), а не приращения между соседними барами.
Кумулятивное приращение к 100му бару будут выглядеть как: 405,410,408 пт,  а побарные приращения так и останутся 5,4,-2 пт ...
На кумулятивных тренды остаются, на побарых - почти не заметны. Ну а если их перемешать, как в статье, то останется блуждание около 0.
Мне казалось тут все от 0 бара приращения считают...
 

Обычные приращения с произвольным лагом. Без логарифмов и нулевых баров. Вопрос был про признаки. Основная проблема там - низкий signal/noise ratio. Но они содержат всю информацию.

Глухой телефон эволюционирует :)

Последние статьи вообще не читаю, особенно плодовитых авторов-водометов, с целыми циклами воды :)
 
Maxim Dmitrievsky #:

Обычные приращения с произвольным лагом. Без логарифмов и нулевых баров. Вопрос был про признаки. Основная проблема там - низкий signal/noise ratio. Но они содержат всю информацию.

Понятно, что всю. Но если использовать приращения между соседними барами, то чтобы понять, что был тренд за последние 100 баров, модель должна все 100 баров сложить и получить приращение от 0 бара. А подавая сразу от 0 бара, - мы облегчаем ей работу.
Возможно нейросети и смогут учесть все 100 приращений и найти тренд, но деревянные модели вряд ли. Вы сами говорили (и у меня такой же результат), что лучше всего модели работают на нескольких  признаках (до 10), а из 10 не сложится полный тренд из 100. Да и кроме приращений могут найтись признаки более полезные.

Поэтому мой произвольный лаг для приращений - всегда от 0 бара, чтобы модель видела тренд. Приращения между соседними барами - вообще никогда не использовал, т.к. считал их шумом. Например приращение в 0.00010 пт между 120 и 121 баром, т.е. 2 часа назад, какое может иметь влияние на текущую ситуацию? - Никакого.

 
Forester #:

Понятно, что всю. Но если использовать приращения между соседними барами, то чтобы понять, что был тренд за последние 100 баров, модель должна все 100 баров сложить и получить приращение от 0 бара. А подавая сразу от 0 бара, - мы облегчаем ей работу.
Возможно нейросети и смогут учесть все 100 приращений и найти тренд, но деревянные модели вряд ли. Вы сами говорили (и у меня такой же результат), что лучше всего модели работают на нескольких  признаках (до 10), а из 10 не сложится полный тренд из 100. Да и кроме приращений могут найтись признаки более полезные.

Поэтому мой произвольный лаг для приращений - всегда от 0 бара, чтобы модель видела тренд. Приращения между соседними барами - вообще никогда не использовал, т.к. считал их шумом. Например приращение в 0.00010 пт между 120 и 121 баром, т.е. 2 часа назад, какое может иметь влияние на текущую ситуацию? - Никакого.

Тренд - это смещение среднего приращений. То есть на диаграмме приращений он тоже есть.  Про много признаков проблема объясняется с точки зрения конфаундеров, то есть сложнее становится отделить влияние каждого признака ото всех остальных. Ведь каждый вносит доп. ошибку в финальную оценку. Осложняется причинно-следственный вывод, добавляется неопределенность. Видимо, есть какое-то ограничение на сложность модели на форе, которое зависит от signal to noise ratio.

Лаг приращений напрямую связан с продолжительностью предсказываемой сделки в барах. Например, если продолжительность 1 бар, то лучше взять приращения с маленьким лагом и небольшой глубиной окна. При увеличении продолжительности сделок лаг приращений тоже увеличивается естественным образом. Ну и спред конечно влияет.
 

написал советника который записывает данные каждого тика и формирует csv файл с данными, и рядом запустил нейросеть которая анализирует этот файл, производит обучение  и на основании последней строки в первом файле выводит прогноз куда пойдет цена и на сколько пунктов. Написал на python. Есть кто уже делал нечто подобное и какие данные еще можно учиывать чтобы охватить полную картину.  Сейчас опыт идет на основе 'Открытие', 'Максимум', 'Минимум', 'Закрытие', 'Объем'.

не знаю как вставить скрин

 
Андрей #:

написал советника который записывает данные каждого тика и формирует csv файл с данными, и рядом запустил нейросеть которая анализирует этот файл, производит обучение  и на основании последней строки в первом файле выводит прогноз куда пойдет цена и на сколько пунктов. Написал на python. Есть кто уже делал нечто подобное и какие данные еще можно учиывать чтобы охватить полную картину.  Сейчас опыт идет на основе 'Открытие', 'Максимум', 'Минимум', 'Закрытие', 'Объем'.

не знаю как вставить скрин

записывать и анализировать тики ВСЕХ валютных пар и металлов.

добавить время дня, день недели

классификацию ожидаемой новости

секунд до новости

классификацию прошедшей новости

секунд после новости

===

в общем чем-то себя и питон занять :-)

 
Мы еще не все МО осилили, поэтому с ходу не подскажем :)
 
Maxim Dmitrievsky #:
Мы еще не все МО осилили, поэтому с ходу не подскажем :)

Зачем осваивать все МО? Только моделей несколько сот... А модели явно менее половины проблемы.

Может освоить пару моделей, но научиться стабильно добиваться примерно одинаковой ошибки классификации на ООВ и ООС  менее 20%? При этом имея в базе доказательство отсутствия сверх обучения, заглядывания вперед и, главное, доказательство полученной ошибки классификации в будущем?

 
СанСаныч Фоменко #:

Зачем осваивать все МО? Только моделей несколько сот... А модели явно менее половины проблемы.

Может освоить пару моделей, но научиться стабильно добиваться примерно одинаковой ошибки классификации на ООВ и ООС  менее 20%? При этом имея в базе доказательство отсутствия сверх обучения, заглядывания вперед и, главное, доказательство полученной ошибки классификации в будущем?

Под всем МО подразумеваются распространенные подходы и практики. Например, вы можете получить вероятности классов для бинарной классификации? Если да, ко каким образом?
Причина обращения: