Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3068

 

Мне вот, кажется, важным вопрос именно причинно следственных связей - пару месяцев назад писал об этом на примерах событий - но опять никто не понял.

В видео обсуждается вопрос важности причинности для анализа значимости предекторов.


 
Aleksey Vyazmikin #:

Судя из описания нечто иное.

"

Описание

Находит причинно-следственные связи в точных данных, обнаруживает задержки и вложения во временных рядах, направляет обучение нейронных сетей и других гладких моделей, оценивает их производительность, дает математически обоснованный ответ на проблему переобучения.  Плавная регрессия основана на гамма-тесте, который измеряет плавность в многомерной зависимости.  Причинно-следственные связи плавные, шум - нет.  "sr" включает гамма-тест и методы поиска, которые его используют.

"

В каузале много подходов, о том и речь была, что тема обширная, есть смысл обсуждать. 
 
Aleksey Vyazmikin #:
Максим, а можете по моей выборке сделать бота по Вашей системе? Это мне было бы интересней, чем просто черный ящик.
У вас там миллионы признаков наверное. Мой подход настроен на полный автомат. Можете просто сказать какие признаки хорошие по вашему мнению, несколько штук или один и тот же с разными параметрами, могу запустить на них. А целевые он сам подберет. Потому что от вашего датасета только признаки останутся в любом случае, остальное он все поменяет.
 
Maxim Dmitrievsky #:
У вас там миллионы признаков наверное. Мой подход настроен на полный автомат. Можете просто сказать какие признаки хорошие по вашему мнению, несколько штук или один и тот же с разными параметрами, могу запустить на них. А целевые он сам подберет. Потому что от вашего датасета только признаки останутся в любом случае, остальное он все поменяет.

Нет не миллион - там 6к признаков. У Вас сколько там в среднем получается их? Вообще CB легко их ворочает. То, что целевые могут меняться - пусть. Сама выборка у меня не большая - 4к строк для train + test дам для валидации (я так понял, у Вас фиксированное число деревьев для каждой модели).

 
Aleksey Vyazmikin #:

Нет не миллион - там 6к признаков. У Вас сколько там в среднем получается их? Вообще CB легко их ворочает. То, что целевые могут меняться - пусть. Сама выборка у меня не большая - 4к строк для train + test дам для валидации (я так понял, у Вас фиксированное число деревьев для каждой модели).

10-20 признаков хватает. Любые на выбор, чтобы формулы загнать просто в готовую либу. Чтобы ничего не менять. Я после чтения файла с ценами генерю нужные признаки, не читаю готовые. Большое кол-во разреженных тоже не надо. Чем больше признаков, тем сложнее найти устойчивые связи.

Надо понимать, что это своебразная вещь со своими приколами. Не обычное обучение.

Поставил на обучение 3к моделей, ушел спать. Завтра посмотрю лучшие за кофе 😋
 
Maxim Dmitrievsky #:
10-20 признаков хватает. Любые на выбор, чтобы формулы загнать просто в готовую либу. Чтобы ничего не менять. Я после чтения файла с ценами генерю нужные признаки, не читаю готовые. Большое кол-во разреженных тоже не надо. Чем больше признаков, тем сложнее найти устойчивые связи.

Поставил на обучение 3к моделей, ушел спать. Завтра посмотрю лучшие за кофе 😋

Так не легче чтение из массива сделать и работать с рассчитанными данными, чем какие то формулы писать?

Думаю, что код совсем не менять не удастся. Не настаиваю на эксперименте.

 

Все еще учимся

R2: 0.9806482223765112

Learn 2204 model из 3000


 
Aleksey Vyazmikin #:

Так не легче чтение из массива сделать и работать с рассчитанными данными, чем какие то формулы писать?

Думаю, что код совсем не менять не удастся. Не настаиваю на эксперименте.

Формулы надо, потом в терминал переносить. Готового бота скину. От вас нужны только фичи. Названия индикаторов, если в формулы не можете.
 
Женя #:

Вы не не поняли главное что я Вам хотел сказать, попробуйте прогнать ваш пайплан на СБ(случайном блуждании), для начала, а может(точно) у вас будут близкие результаты, о чем это может говорить?

8% - ошибки это смешно, на правильно подготовленных фичах и таргетах такого быть не может в принципе, вы прогнозируете прошлое смешанное с будущим и ваш прогноз это прошлое эффективно выискивает.

SR - Sharpe ratio нормированное корнем от количества наблюдений, это стандартная мера перфоманса стратегии. SR - функция акураси, а ещё больше корреляции прогнозного ретурна  с реализованным, акураси 60%+ даёт двузначный SR, это гладкое экспоненциальное(при реинвестировании) эквити.

Так разные реализации СБ могут иметь и тренды и циклы и все что хочешь. Что даст это сравнение?
 
Maxim Dmitrievsky #:
Формулы надо, потом в терминал переносить. Готового бота скину. От вас нужны только фичи. Названия индикаторов, если в формулы не можете.

Можно просто отдельно мне дать бинарные модели. Я так понимаю, в итоге их две штуки? Такой подход позволит работать с любыми данными.

Причина обращения: