Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3344

 
Forester #:

А что вы хотите? Почти с рандомом работаем. Это вам не спрос на мороженое в зависимости от температуры исследовать, как в Козуле)))

хочу zeekr 001

 
Maxim Dmitrievsky #:

Есть что-то от яндекса

Спасибо, качественная и интересная статья с обширной литературой.

Вроде бы у них не рассматривается тот вид неопределённости, который интересен - вероятностная зависимость выхода от признаков. У них изучаются два других её вида - неопределённости связанные с неточностями признаков и параметров. Названы они красиво - aleatoric и epistemic uncertainty) Нужно по аналогии наш вариант назвать target uncertainty)

Имхо, в нашем случае "ошибки измерения" признаков отсутствуют в принципе, а неопределённость параметров модели плохо отделима от нашей "целевой неопределённости".

 
Forester #:

А что вы хотите? Почти с рандомом работаем. Это вам не спрос на мороженое в зависимости от температуры исследовать, как в первой книге по Козулу, которую тут полгода назад скидывали)))

Вот и нужно пытаться аккуратно измерять зависимость этого "Почти" от признаков)

 
Aleksey Nikolayev #:

Спасибо, качественная и интересная статья с обширной литературой.

Вроде бы у них не рассматривается тот вид неопределённости, который интересен - вероятностная зависимость выхода от признаков. У них изучаются два других её вида - неопределённости связанные с неточностями признаков и параметров. Названы они красиво - aleatoric и epistemic uncertainty) Нужно по аналогии наш вариант назвать target uncertainty)

Имхо, в нашем случае "ошибки измерения" признаков отсутствуют в принципе, а неопределённость параметров модели плохо отделима от нашей "целевой неопределённости".

Мне показалось, что сумма этих неопределенностей и должна давать target uncertainty. Но я сильно не разбирался.

Подход примерно как в козуле через мета лернеры, но здесь еще предложен способ разобрать одну модель и использовать как ансамбль усеченных классификаторов, вместо ансамбля из нескольких классификаторов, для скорости.

 
Maxim Dmitrievsky #:


Не понимаю, откуда взялась оценка по R квадрат?

Мне раньше казалось, что эта оценка применима в регрессиях, если все коэффициенты регрессии знАчимы. В противном R квадрат не существует....

 
СанСаныч Фоменко #:

Не понимаю, откуда взялась оценка по R квадрат?

Мне раньше казалось, что эта оценка применима в регрессиях, если все коэффициенты регрессии знАчимы. В противном R квадрат не существует....

ее просто тестер показывает, для быстрого сравнения разных кривых балансов подходит

она больше нигде не участвует

 
А мне кажется что само направление неверное в корне..
Я думаю что надо не строить ТС на всех данных,  а наоборот выбрать какую то одну ситуацию/паттерн который уже работает Хотя-бы 50/50 и пытаться отделить работает/не работает, те обычная бинарная классификация 
 
mytarmailS #:
выбрать какую то одну ситуацию/паттерн который уже работает Хотя-бы 50/50

Они все работают 50/50

 
Ivan Butko #:

Они все работают 50/50

Это только кажется.. 

Ето как вероятность встретить динозавра 50/50 либо встретишь либо нет..  К реальной вероятности не имеет никакого отношения. 
 
mytarmailS #:
Это только кажется.. 

Ето как вероятность встретить динозавра 50/50 либо встретишь либо нет..  К реальной вероятности не имеет никакого отношения. 

Если забить в скрипт фигуру и посмотреть статистику будущего, то распределение вверх/вниз, как по количеству свечей, так и по количеству пунктов стремится к 50 на 50. 

Это что касается фигур из свечей (соотношения HLC друг с другом), а вневременные не считал, т.к. их слишком мало выходит для статистики хотя бы в 1000 фигур. 

А так, если в 2022 году фигура показала форвард в 55% свечей вверх и среднюю величину свечей на 5-10% выше, чем в сел, то в 2023-м отработка всё равно будет 50 на 50, без каких-либо привилегий. 

Причина обращения: