Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 235

 
Vizard_:
Смотрю по алг тр. на r уже и книжки начали писать)))
allitebooks.com/automated-trading-with-r-2/
Если начинают описывать в книгах какой то метод "как делать деньги", то этот метод либо перестал работать, либо не работал никогда. Показатель однако. То есть когда описание методов в книге приносит больше денег, чем сам метод.
 
Vizard_:
toxic -а ради спортивного интереса маненько обогнал, на этом и остановлюсь. Ресурса свободного немного, а желания совсем нет и не было,

лишь поддержал идею о "входном билете в ветку". < 0.69, на вскидку, уйти особых проблем не составит. < 0.68 хз, там уже покумекать надо)))

https://numer.ai


Колитесь пожалуйста, какая модель, как учили?
 
lucky_teapot:
Колитесь пожалуйста, какая модель, как учили?

Ошибка предсказания класса менее 30%. Бывает значительно меньше 30%, но менее 20% добиться не удалось. Зато есть серьезные основания утверждать, что модель НЕ переобучена. Главное, чтоб не была переобучена - переобученная модель вообще не нужна, опасный мусор.

Модели: случайный лес и ada. Вообще выбор модели мало влияет на результат, если она вообще обучается. На моих предикторах nnet вообще толком не обучается.

 
СанСаныч Фоменко:

Ошибка предсказания класса менее 30%. Бывает значительно меньше 30%, но менее 20% добиться не удалось. Зато есть серьезные основания утверждать, что модель НЕ переобучена. Главное, чтоб не была переобучена - переобученная модель вообще не нужна, опасный мусор.

Модели: случайный лес и ada. Вообще выбор модели мало влияет на результат, если она вообще обучается. На моих предикторах nnet вообще толком не обучается.

Какой у вас logloss там?
 
lucky_teapot:
Какой у вас logloss там?
Что такое logloss?
 
СанСаныч Фоменко:

Ошибка предсказания класса менее 30%. Бывает значительно меньше 30%, но менее 20% добиться не удалось. Зато есть серьезные основания утверждать, что модель НЕ переобучена. Главное, чтоб не была переобучена - переобученная модель вообще не нужна, опасный мусор.

Модели: случайный лес и ada. Вообще выбор модели мало влияет на результат, если она вообще обучается. На моих предикторах nnet вообще толком не обучается.

СанСаныч Фоменко:
Что такое logloss?

Ну я так понял Вы говорите про свой скор на https://numer.ai но не в логлосе а хэминге(% ошибки), но логлос хитрая штука, там нужно не только угадать класс но и вероятность

 
lucky_teapot:

Ну я так понял Вы говорите про свой скор на https://numer.ai но не в логлосе а хэминге(% ошибки), но логлос хитрая штука, там нужно не только угадать класс но и вероятность

Я пишу про свой советник. В нем есть модель. 

Я пользуюсь пакетами и в них имеется оценка, навскидку, не имеющая отношения к логлосу. Более того, результаты из пакетов могут быть оценены другими средствами.... Логлос не помню. 

А класс, в тех пакетах которые я видел, получается из вероятности, т.е. в реальности считается вероятность, а затем калибруется. Стандартно пополам для двух классов, но можно влезть и порулить.

 
СанСаныч Фоменко:

Я пишу про свой советник. В нем есть модель. 

Я пользуюсь пакетами и в них имеется оценка, навскидку, не имеющая отношения к логлосу. Более того, результаты из пакетов могут быть оценены другими средствами.... Логлос не помню. 

А класс, в тех пакетах которые я видел, получается из вероятности, т.е. в реальности считается вероятность, а затем калибруется. Стандартно пополам для двух классов, но можно влезть и порулить.

Не могу ничего сказать тогда, как минимум нужен датасет на котором Вы получили такие результаты. Логлос согласен, для нашего случая не совсем верный выбор, это дань kaggle-у, не переобученных 20-30% ошибки в accuracy, это как по мне очень могущественно, честно говоря верится с трудом.

 

Для логлоса хитрость в том, что к примеру для двух классов если у Вас ошибки - 0%, то вероятности ответов будут близки к 100% и 0%, {0,1,0,1....} , когда ошибки - 10% то это влияет не только на вероятности НЕ верно опеделенных клсасов но и на ВЕРНЫЕ, то есть те верные ответы что были по 1 и 0, должны теперь быть к примеру 0.8 и 0.2, когда ошибки 45% то вообще всё должно осцилировать в районе 0.5 +- 0.1, что бы логлос был оптимальным, такая алхимия....

 
Dr.Trader:

Случайно посмотрел профиль lucky_teapot, там была тема на форуме, в ней ссылка на статью. Мне кажется всё это перенесено с форума mql4.com, который я почти не изучал, спасибо MetaQuotes если это действительно перенесли это оттуда.
Статье почти 9 лет, а увидел кучу полезного что не грех и сейчас попробовать. Я кажется даже понял про мерное лаговое пространство, про которое в этой теме Алексей говорил уже пару раз.
Сама статья, считаю очень полезным - https://www.mql5.com/ru/articles/1506 

прочитал.. , заинтересовала  одна штука, автор говорит о том что можно немного видоизменять  данные тем самым увеличивая выборку и модель тогда лучше будет работать так как база знаний у модели будет шире...

 Я работаю с разворотами, а разворотов все таки мало по сравнению с общ. выборкой

Я вот думаю что если нарандомить много миллионную выборку и обучить на ней модель ловить развороты, примеров то будет уже много, а что рандом что рынок я думаю сам паттерн разворота там одинаков(имелось ввиду много патернов)

И тут всплывает еще вопрос, вернее идея но пока без решения...

Чем больше милионов значений в той выборке тем тяжелее вычисления, я вот думаю что если из этой много миллионной выборки сразу вычленить все развороты и оставить в качестве обучаемой выборки только их, Так модель обучиться только на самих разворотах, это как бы быстро, но когда прийдеться отличать разворот от не разворота на новых данных то как модель это сделает если она понятия не имеет что такое НЕразворот...??.  делема((

 
mytarmailS:

прочитал.. , заинтересовала  одна штука, автор говорит о том что можно немного видоизменять  данные тем самым увеличивая выборку и модель тогда лучше будет работать так как база знаний у модели будет шире...

 Я работаю с разворотами, а разворотов все таки мало по сравнению с общ. выборкой


Что такое разворот? Один бар как в ЗЗ?

Мне очень нравится идея (выловил здесь на ветке), когда разворотом считается некоторая последовательность баров, после которой, в будущем, будет заранее оговоренная прибыль. Этот подход сильно уменьшит несбалансированность классов. Это раз. Второе, сам учитель будут обладать явным предсказательным свойством.

Причина обращения: