Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 487
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
По идее в случайных лесах и должна быть маленькая ошибка, потому что при их построении в деревьях решений используется все переменные и нет ограгничения на использование памяти как в нейросетях - количествово нейронов. Там можно только отдельные операции использовать для "размывания" результата, типа ограничения уровне, обрезки деревьев или бэггинга. Не знаю есть-ли в MQ реализации алглиба обрезка, бэггинг есть
если эту переменную делать поменьше чем 1 ,то должна ошибка увеличиваться.
так и есть, но ошибка все равно показывалась средняя, как описал выше.. теперь она норм
Кстати, даже при уменьшении r на о.1 ошибка оч. сильно возрастает. Сверху r 0.9 снизу 0.8
При r = 0.66 (как в классической версии RF)
И по результатам видно что табл. умножения уже решает плохо
По идее в случайных лесах и должна быть маленькая ошибка, потому что при их построении в деревьях решений используется все переменные и нет ограгничения на использование памяти как в нейросетях - количествово нейронов. Там можно только отдельные операции использовать для "размывания" результата, типа ограничения уровне, обрезки деревьев или бэггинга. Не знаю есть-ли в MQ реализации алглиба обрезка, бэггинг есть
если эту переменную делать поменьше чем 1 ,то должна ошибка увеличиваться.
нужно на 500000000000000 совершить 1 неправильную сделку.что не возможно на любом инструменте.
с уважением.
для того чтоб ошибка была такой маленькой как у @Maxim Dmitrievsky
нужно на 500000000000000 совершить 1 неправильную сделку.что не возможно на любом инструменте.
с уважением.
Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть в тренировочном сэте, при 100% выборки т.е. R=1.
Да, это переподгонка, но так работает алгоритм, поэтому и используют всякие ухищрения в случайных лесах.
Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть при 100% выборки т.е. R=1.
для этого надо смотреть out of bag, для оценки модели, но тогда r=0.66 макс ставить да
Причем тут сделки, я вам говорю про то, что каждое дерево решений практически запоминает все паттерны и ошибки вообще может не быть при 100% выборки т.е. R=1.
с уважением.
для этого надо смотреть out of bag, для оценки модели, но тогда r=0.66 макс ставить да
Наверное подбирать надо, но один бэггинг не очень сильная технология для прогнозирования - ИМХО
ну чем богаты пока что.. :) потом если нормальную либу подключу с диплернингом, буду его смотреть
зато скорость!
так и есть, но ошибка все равно показывалась средняя, как описал выше.. теперь она норм
Кстати, даже при уменьшении r на о.1 ошибка оч. сильно возрастает. Сверху r 0.9 снизу 0.8
При r = 0.66 (как в классической версии RF)
И по результатам видно что табл. умножения уже решает плохо
с уважением.
я не вдавался как работает лес. но исходя из ваших слов понимаю, что каждое дерево запоминает какой то паттерн, который в последствии может и не повториться. при этом соответственно(раз нет повторения) мы не можем сказать какова вероятность его отработки в плюс и как аксиому принимаем его вероятность за 1, вместо того чтоб принять ее за 0.5 так как она по сути не известна. отсюда и получаем что лес практически не ошибается(с ваших слов).
с уважением.
когда я увеличивал порог для сигнала НС у меня компенсировала это увеличением количества необходимых вводных данных, как следствие уменьшалась ошибка, но и вариантов для входа становилось меньше.
с уважением.
ну тут уже вопрос в правильных фичах и целевой, хотя казалось бы что может быть проще чем таблица умножения, но и там ошибка не маленькая