Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 487

 
Ivan Negreshniy:

По идее в случайных лесах и должна быть маленькая ошибка, потому что при их построении в деревьях решений используется все переменные и нет ограгничения на использование памяти как в нейросетях - количествово нейронов. Там можно только отдельные операции использовать для "размывания" результата, типа ограничения уровне, обрезки деревьев или бэггинга. Не знаю есть-ли в MQ реализации алглиба обрезка, бэггинг есть

 если эту переменную делать поменьше чем 1 ,то должна ошибка увеличиваться.


так и есть, но ошибка все равно показывалась средняя, как описал выше.. теперь она норм

2017.09.27 18:34:34.076 RF sample (EURUSD,H1)   Info=1  Error=0.2893400000000008
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 1 >> 1*6=6 // 7*2=14 // 1*5=5 // 5*5=25 // 3*8=24 // 1*8=8 // 9*6=55 // 8*8=64 // 2*2=4 // 9*4=37 // 
2017.09.27 18:34:34.077 RF sample (EURUSD,H1)   Тест 2 >> 4.3*8.7=36.34(37.41) // 2.0*6.3=12.18(12.60) // 7.1*5.7=42.39(40.47) // 2.1*1.6=3.96(3.36) // 8.9*2.5=26.57(22.25) // 

Кстати, даже при уменьшении r на о.1 ошибка оч. сильно возрастает. Сверху r 0.9 снизу 0.8

2017.09.27 18:36:11.298 RF sample (EURUSD,H1)   Info=1  Error=0.5431000000000188
2017.09.27 18:36:11.299 RF sample (EURUSD,H1)   Тест 1 >> 3*7=21 // 6*1=7 // 8*3=24 // 2*1=2 // 4*5=20 // 7*5=34 // 7*7=49 // 1*9=10 // 6*9=55 // 7*7=49 // 
2017.09.27 18:36:11.300 RF sample (EURUSD,H1)   Тест 2 >> 6.0*6.3=37.00(37.80) // 2.7*8.4=23.85(22.68) // 5.6*6.2=36.71(34.72) // 7.3*6.6=48.66(48.18) // 7.4*2.8=20.74(20.72) // 

При r = 0.66 (как в классической версии RF)

2017.09.27 18:37:44.484 RF sample (EURUSD,H1)   Info=1  Error=0.7935200000000080
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 1 >> 2*1=3 // 6*1=7 // 2*6=13 // 5*9=45 // 7*8=57 // 2*6=13 // 7*5=35 // 3*3=9 // 8*4=33 // 6*1=7 // 
2017.09.27 18:37:44.485 RF sample (EURUSD,H1)   Тест 2 >> 4.1*9.9=40.11(40.59) // 7.6*3.2=24.40(24.32) // 6.8*8.3=55.62(56.44) // 1.9*5.6=11.64(10.64) // 9.3*7.8=71.33(72.54) // 

И по результатам видно что табл. умножения уже решает плохо

 
Ivan Negreshniy:

По идее в случайных лесах и должна быть маленькая ошибка, потому что при их построении в деревьях решений используется все переменные и нет ограгничения на использование памяти как в нейросетях - количествово нейронов. Там можно только отдельные операции использовать для "размывания" результата, типа ограничения уровне, обрезки деревьев или бэггинга. Не знаю есть-ли в MQ реализации алглиба обрезка, бэггинг есть

 если эту переменную делать поменьше чем 1 ,то должна ошибка увеличиваться.

для того чтоб ошибка была такой маленькой как у @Maxim Dmitrievsky
И тоже очень маленькая ошибка: 2017.09.27 16:26:12.267  RF sample (EURUSD,H1)   Info=1  Error=0.0000000000000020
нужно на 500000000000000 совершить 1 неправильную сделку.что не возможно на любом инструменте.

с уважением.
 
Andrey Kisselyov:
для того чтоб ошибка была такой маленькой как у @Maxim Dmitrievsky
нужно на 500000000000000 совершить 1 неправильную сделку.что не возможно на любом инструменте.

с уважением.

Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть в тренировочном сэте, при 100% выборки т.е. R=1.

Да, это переподгонка, но так работает алгоритм, поэтому и используют всякие ухищрения в случайных лесах.

 
Ivan Negreshniy:

Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть при 100% выборки т.е. R=1.


для этого надо смотреть out of bag, для оценки модели, но тогда r=0.66 макс ставить да

 
Ivan Negreshniy:

Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть при 100% выборки т.е. R=1.

я не вдавался как работает лес. но исходя из ваших слов понимаю, что каждое дерево запоминает какой то паттерн, который в последствии может и не повториться. при этом соответственно(раз нет повторения) мы не можем сказать какова вероятность его отработки в плюс и как аксиому принимаем его вероятность за 1, вместо того чтоб принять ее за 0.5 так как она по сути не известна. отсюда и получаем что лес практически не ошибается(с ваших слов).

с уважением.
 
Maxim Dmitrievsky:

для этого надо смотреть out of bag, для оценки модели, но тогда r=0.66 макс ставить да

Наверное подбирать надо, но один бэггинг не очень сильная технология для прогнозирования - ИМХО
 
Ivan Negreshniy:
Наверное подбирать надо, но один бэггинг не очень сильная технология для прогнозирования - ИМХО

ну чем богаты пока что.. :) потом если нормальную либу подключу с диплернингом, буду его смотреть

зато скорость!

 
Maxim Dmitrievsky:

так и есть, но ошибка все равно показывалась средняя, как описал выше.. теперь она норм

Кстати, даже при уменьшении r на о.1 ошибка оч. сильно возрастает. Сверху r 0.9 снизу 0.8

При r = 0.66 (как в классической версии RF)

И по результатам видно что табл. умножения уже решает плохо

когда я увеличивал порог для сигнала НС у меня компенсировала это увеличением количества необходимых вводных данных, как следствие уменьшалась ошибка, но и вариантов для входа становилось меньше.






с уважением.
 
Andrey Kisselyov:
я не вдавался как работает лес. но исходя из ваших слов понимаю, что каждое дерево запоминает какой то паттерн, который в последствии может и не повториться. при этом соответственно(раз нет повторения) мы не можем сказать какова вероятность его отработки в плюс и как аксиому принимаем его вероятность за 1, вместо того чтоб принять ее за 0.5 так как она по сути не известна. отсюда и получаем что лес практически не ошибается(с ваших слов).

с уважением.
R=1 означает, что каждое дерево запоминает весь тренировочный набор паттернов, а 0.66 означает, что только 66%, причем каждое дерево выбирает паттерны с возвратом, т.е. одни и те же паттерны могут повторяться у многих деревьев леса.
 
Andrey Kisselyov:
когда я увеличивал порог для сигнала НС у меня компенсировала это увеличением количества необходимых вводных данных, как следствие уменьшалась ошибка, но и вариантов для входа становилось меньше.




с уважением.

ну тут уже вопрос в правильных фичах и целевой, хотя казалось бы что может быть проще чем таблица умножения, но и там ошибка не маленькая

Причина обращения: