Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3026

 
Aleksey Vyazmikin #:

В бинарном виде. Столбец - номер правила, а значение "1" - сработало правило и "0" - не сработало правило. Ну а целевая как на основной выборке.

Это один из способов всё агрегировать. Но, CatBoost не очень хорошо справляется с задачей тут, как мне кажется - очень разряженные данные.

еще правила получаются в одну сторону покупка/продажа. Просто стопы подбираются под них? Если не пихать их в бустинг

думаю просто генерить сразу проверочного бота и проверять нужные правила через тестер/оптимизатор
 
Maxim Dmitrievsky #:

еще правила получаются в одну сторону покупка/продажа. Просто стопы подбираются под них? Если не пихать их в бустинг

В старом подходе, результаты которого я демонстрировал, было 3 метки класса - "1" - покупка, "-1" - продажа и "0" - не торговать.

Сейчас я использую две метки "1" - торговать и "0" - не торговать имя столбца - "Target_100". Направление определяется отдельным столбцом "Target_P", и для фин. результата покупки и продаж соответствующие столбцы "Target_100_Buy" и "Target_100_Sell". Так же в выборке вспомогательный столбец с датой есть "Time".

В общем хвост выборки содержит все эти столбцы и выглядит это так

 
А зачем правила пихать в буст ???
 
Maxim Dmitrievsky #:
думаю просто генерить сразу проверочного бота и проверять нужные правила через тестер/оптимизатор

Отбор листьев лучше делать всё же в питоне, а итоговую модель - ну можно и в терминале. Но в терминал придется переносить правила - что так же не так просто. Поэтому лучше все на питоне - пусть с меньшей точностью в каком то смысле, но зато процесс виден от начала до конца. Это же пока просто эксперимент....

 
mytarmailS #:
А зачем правила пихать в буст ???

Я же написал - один из способов их агрегировать. Раздать по сути веса и убрать противоречия. Выявить лучшие экземпляры.

Можно использовать простое дерево. Или самому группировать и раздавать веса. Я пробовал все эти методы применять.

У Вас какая то иная идея?

 
Aleksey Vyazmikin #:

Отбор листьев лучше делать всё же в питоне, а итоговую модель - ну можно и в терминале. Но в терминал придется переносить правила - что так же не так просто. Поэтому лучше все на питоне - пусть с меньшей точностью в каком то смысле, но зато процесс виден от начала до конца. Это же пока просто эксперимент....

ну правила перенести вообще ничего не стоит

отбор на питоне по метрикам, возможно тестер сделаю для них

можно много чего сделать. Через деревянные модели, через линейные, через бустинги

+ генератор признаков через сверки, один из самых эффективных. Но считать будет долго. Это автоматический аналог вашего квантования.

 
Aleksey Vyazmikin #:

Я же написал - один из способов их агрегировать. Раздать по сути веса и убрать противоречия. Выявить лучшие экземпляры.

Можно использовать простое дерево. Или самому группировать и раздавать веса. Я пробовал все эти методы применять.

У Вас какая то иная идея?

Так Статистика по каждому правилу решает эту задачу
Частота,  точность,  размер,  вероятность.... Итп

Зачем там буст, не понимаю
 
Maxim Dmitrievsky #:

ну правила перенести вообще ничего не стоит

отбор на питоне по метрикам, возможно тестер сделаю для них

можно много чего сделать. Через деревянные модели, через линейные, через бустинги

+ генератор признаков через сверки, один из самых эффективных. Но считать будет долго. Это автоматический аналог вашего квантования.

Что за "сверки"?

 
mytarmailS #:
Так Статистика по каждому правилу решает эту задачу
Частота,  точность,  размер,  вероятность.... Итп

Зачем там буст, не понимаю

Деревянная модель для убирания противоречий и выявления взаимных нелинейных зависимостей. Речь же идет не об использовании листьев с одного дерева, а с множества разных деревьев.

 
Aleksey Vyazmikin #:

Деревянная модель для убирания противоречий и выявления взаимных нелинейных зависимостей. Речь же идет не об использовании листьев с одного дерева, а с множества разных деревьев.

Те правила это просто  бинарные признаки для модели? 
Причина обращения: