Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3116

 
Maxim Dmitrievsky #:
Интуитивно тоже так кажется. Но еще ведь можно получить вероятности сразу для бай/селл от двух моделей, вне зависимости от того, какое направление прогнозируется. Сравнить их и сделать дополнительную проверку, чтобы вероятности отличались значимо для открытия сделки.
Я не пробовал. Интуитивно) Но как говорил Маркс: практика - критерий истины. Если у вас работает на практике - хорошо)
 
mytarmailS #:

Что значит  -  прогнозирует направление сделки

Что значит -  прогнозирует вероятность выигрыша

Ето слишком размытые понятия..


В общем случаи бинарная классификация   прогноз роста/падения рынка  в виде вероятности и будет решать эту задачу


вероятность роста больше 0,5   - это  направление сделки

вероятность высока  напимер 0,8 - это будет  вероятность выигрыша

И не надо мета моделей..

Но это в общем случаи, но я так понимаю что речь не об общем случаи потому надо уточнить терминологию что есть


прогнозирует направление сделки

прогнозирует вероятность выигрыша


Это все в предыстории не раз здесь обсуждалось. Первая модель, обученная на бай/селл проверяется на новых данных. Случаи, где она ошибается, выносятся в класс не торговать, остальные в торговать. На этом обучается второй классификатор. Получается 2 модели. Одна прогнозирует направление, другая надо ли отрывать сделку. Это дает гибкость, если бы просто выставляли порог для сделок через одну модель. Потому что 2 модели можно улучшать, одну через другую. Изначальный способ в последней статье описывал. Потом перешел на видоизмененную логику.

Это, кстати, открытый вопрос, потому что улучшать друг через друга можно, видимо, по разному.

Потом я наткнулся на козул инференс, где делают похожим образом.

 
Maxim Dmitrievsky #:

Это все в предыстории не раз здесь обсуждалось. Первая модель, обученная на бай/селл проверяется на новых данных. Случаи, где она ошибается, выносятся в класс не торговать, остальные в торговать. На этом обучается второй классификатор. Получается 2 модели. Одна прогнозирует направление, другая надо ли отрывать сделку. Это дает гибкость, если бы просто выставляли порог для сделок через одну модель. Потому что 2 модели можно улучшать, одну через другую. Изначальный способ в последней статье описывал. Потом перешел на видоизмененную логику.

Это, кстати, открытый вопрос, потому что улучшать друг через друга можно, видимо, по разному.

Потом я наткнулся на козул инференс, где делают похожим образом.

хз.. не знаю...

И что есть какой то толк от такой фильтрации второй моделью?

 
mytarmailS #:

хз.. не знаю...

И что есть какой то толк от такой фильтрации второй моделью?

на новых данных лучше стало

 
Maxim Dmitrievsky #:

на новых данных лучше стало

если на изначально единственной модели поставить пороги вероятности типа 

> 0,7 buy   

< 0.3 sell

то тоже лучше станет и на тесте и на трейне , и сделок будет меньше естественно..

действительно ли вторая модель что то дает? итересно мне..

Были ли какие то тесты, сравнения?

 
Maxim Dmitrievsky #:

Представим гипотетическую ситуацию с одной теоретической TS, которая состоит из основной модели, которая прогнозирует направление сделки и мета модели, которая прогнозирует вероятность выигрыша (торговать или не торговать):

Назовем первую модель основной, которая разделяет пространство признаков на бай/селл черной линией. А вторую мета моделью, которая разделяет общее пространство признаков на торговать/не торговать (красная линия).

Теперь представим другой вариант, когда есть две мета модели и каждая разделяет разные пространства признаков классов BUY и SELL на торговать/не торговать по отдельности (две красные линии).

Чисто теоретический вопрос "на подумать", лучше ли второй вариант. И если лучше, то почему. Просьба высказаться.

Просьба, наверное, даже к Алексею Николаеву, как можно определить эффект от такого "вмешательства". Ведь получится 2 распределения вероятностей двух мета моделей, которые можно сравнить/оценть/разнести по углам.

Неоднозначная постановка проблемы.  

Получается, что второй, вероятностной модели, верим больше, чем первой, вторую модель используем как фильтр для первой.

Или же трактуем ситуацию как операцию "И", т.е. пересечение результатов.


Тупиковый путь, проходили.


Моделей, которые бы давали направление, не встречал, так как если даже внешне дают направление, то это результат регуляризации вероятности направления. Поэтому напрашивается стандартный для  R подход под названием "ансамбль моделей", при котором результаты двух или многих моделей, так сказать, первого уровня, в качестве предикторов суют в какой-либо алгоритм классификации второго уровня. Кстати, если уж так нравится категориальные переменные, то их тоже можно подать на вход классификатора. Если можно результаты моделей ранжировать по уровню доверия, то это можно отрегулировать весами. Т.е. второй уровень - это классификатор, который в качестве предикторов использует результаты классификации моделей первого уровня. Этот подход очень интересен для несбалансированных классов, получаемых какой-либо регуляризацией, отличной от 0.5, например, делим результат классификатора в виде вероятности квантилями с величинами 0.4  и 0.6. Середина - это вне рынка.

 
mytarmailS #:

если на изначально единственной модели поставить пороги вероятности типа 

> 0,7 buy   

< 0.3 sell

то тоже лучше станет и на тесте и на трейне , и сделок будет меньше естественно..

действительно ли вторая модель что то дает? итересно мне..

Были ли какие то тесты, сравнения?

Представь, что ты обучил первую модель через кросс-валидацию, и вынес все неправильные прогнозы во вторую модель как не торговать. У тебя уже появляется статистическая значимость, что первая модель чаще ошибается в определенных местах, а в некоторых всегда торгует хорошо. Это потом можно отфильтровать второй. Через одну модель уже сложнее сделать. Есть еще другие варианты такого тюнинга хитровыдуманные.
 
Maxim Dmitrievsky #:
Представь, что ты обучил первую модель через кросс-валидацию, и вынес все неправильные прогнозы во вторую модель как не торговать. У тебя уже появляется статистическая значимость, что первая модель чаще ошибается в определенных местах, которые можно отфильтровать второй. Через одну модель уже сложнее сделать. Есть еще другие варианты такого тюнинга хитровыдуманные.

ну в принцепе с звучит здраво

 
mytarmailS #:

ну в принцепе с звучит здраво

Даже если вторая модель тоже ошибается, она все равно как-то корректирует ошибки первой в этом случае, да, типа такого. В козул инференсе есть более строгое обоснование тамошних подходов. Я бы сказал что идеально строго доказанное.

https://en.wikipedia.org/wiki/Frisch%E2%80%93Waugh%E2%80%93Lovell_theorem

 
Forester #:
Я не пробовал. Интуитивно) Но как говорил Маркс: практика - критерий истины. Если у вас работает на практике - хорошо)

Пробую перейти на второй вариант, в процессе.

Причина обращения: