Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1534
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Прислеп я видимл, где отрицательный логлосс? Мной указан логлосс для всей модели.
Не уверен, что логлосс это именно то, я хочу найти качественную информацию, а логлосс ищет скорей количество всей модели, может и количество подойдет - не знаю. Есть идеи, как это сделать?
Да, не сбалансирован, но тут что поделать... можно конечно сделать две выборки - разбив выборку на вектора, но опять же потеряется часть информации, которая может быть полезной. В общем я согласен, что выборка не сбалансирована, но как это сделать не теряя информацию не знаю. Пробовал дублировать строки с малым числом целевых - эффект отрицательный.
не отрицательный а стремится к единице, т.е. максимальный. А должен стремиться к нолю
логлосс показывает насколько коррелируют ваши фичи с целевой, если грубо говоря, т.е. 0 это полная корреляция, т.е. они хорошо описывают целевую. 1 - вообще не описывают, т.е. полностью не информативные. Это хороший показатель в том плане, что говорит есть ли вообще какая-то взаимосвязь. У вас получается что ее нет.
не знаю, делать по нормальному 2 класса а не 3
А на выборке вне обучения что? Следующие полгода например?
А выборки вне обучения как бы и нет... не делал, обучал на примерно 1 марта 2019 года, решил, что надо использовать всю информацию с 2014 года.
Но, решил сам посмотреть, что дают эти деревья, засунул в советник и сделал три прохода с 3 разными деревьями с 1 марта 2019 по 15 сентября 2019.
1. Первый шаг расщепления
2. Двадцатый шаг расщепления
3. Сорок восьмой шаг расщепления
И, в общем я сам удивлен, что результаты положительные у всех трех моделей!
Интересно, что 2 модель более плавная. а третья получилось уже с трудом выползает в плюс.
Интересно, что точность моделей не сильно ухудшилась, а иногда даже улучшилась, ниже таблица с изменениями в процентах относительно выборки обучения
Насчет полноты и логлосс сказать не могу - надо снимать показатели и делать выборку.
И да, большинство моделей будет зацикливаться при обучении на ноль, так как действительно существует перевес этого класса относительно двух других, и потом нули искать легче - это и портит всё дело.
не отрицательный а стремится к единице, т.е. максимальный. А должен стремиться к нолю
логлосс показывает насколько коррелируют ваши фичи с целевой, если грубо говоря, т.е. 0 это полная корреляция, т.е. они хорошо описывают целевую. 1 - вообще не описывают, т.е. полностью не информативные. Это хороший показатель в том плане, что говорит есть ли вообще какая-то взаимосвязь. У вас получается что ее нет.
не знаю, делать по нормальному 2 класса а не 3
Чет я не уверен, что Logloss при мультиклассификации равен единице... Вообще не могу понять, как самому формулу реализовать - не понимаю эти шифровки из открытых источников. А хотелось бы видеть Logloss не итоговый, а по всей выборке, как он меняется и где проседает. И как я понял, он корректен при сбалансированной выборке в большей мере...
Чет я не уверен, что Logloss при мультиклассификации равен единице... Вообще не могу понять, как самому формулу реализовать - не понимаю эти шифровки из открытых источников. А хотелось бы видеть Logloss не итоговый, а по всей выборке, как он меняется и где проседает. И как я понял, он корректен при сбалансированной выборке в большей мере...
защем себе мозг парить этим.. работают большие конторы типа яндеха, делают вещи. Сказано: делайте так и будет вам хорошо. Просто делаете так и не делаете самодеятельности. Иначе утонете в формулировках и разных подходах.
Он и так показывает изменение, когда по градиенту идет, наращивая деревьяА выборки вне обучения как бы и нет... не делал, обучал на примерно 1 марта 2019 года, решил, что надо использовать всю информацию с 2014 года.
Но, решил сам посмотреть, что дают эти деревья, засунул в советник и сделал три прохода с 3 разными деревьями с 1 марта 2019 по 15 сентября 2019.
1. Первый шаг расщепления
2. Двадцатый шаг расщепления
3. Сорок восьмой шаг расщепления
И, в общем я сам удивлен, что результаты положительные у всех трех моделей!
Интересно, что 2 модель более плавная. а третья получилось уже с трудом выползает в плюс.
Интересно, что точность моделей не сильно ухудшилась, а иногда даже улучшилась, ниже таблица с изменениями в процентах относительно выборки обучения
Насчет полноты и логлосс сказать не могу - надо снимать показатели и делать выборку.
И да, большинство моделей будет зацикливаться при обучении на ноль, так как действительно существует перевес этого класса относительно двух других, и потом нули искать легче - это и портит всё дело.
Такое получаю. Просто перенес всю логику бота на python, лес заменил бустом. Не могу найти ошибку, вроде нет подглядываний. В зависимости от настроек, акурас можно поднять до 0.7-0.8, при уменьшении кол-ва сделок.
У леса диапазон ошибок примерно такой же, но там не акурас а ошибка классификации. И на трейне ведет себя аналогично, даже лучше. Но на тесте намного хуже.
обучение:
ООС в 10 раз больше обучения
А на входе что? Чисто цены?
приращения
на выходных коннектор допилю, поставлю на тесты. Планирую залить модель в облако и из терминала забирать сигналы. Можете тоже потом потестировать, кто хочет. Клиента на мт5 могу скинуть потомПростой и интересный подход как описать паттерны для МО
https://www.quanttrader.com/index.php/a-simple-algorithm-to-detect-complex-chart-patterns/KahlerPhilipp2019
приращения
на выходных коннектор допилю, поставлю на тесты. Планирую залить модель в облако и из терминала забирать сигналы. Можете тоже потом потестировать, кто хочет. Клиента на мт5 могу скинуть потомА уж потом вкладываться в копирование или повторение метода.
Мои эксперименты на алглибовском лесе и одиночном дереве с приращениями цен на входе и с целевой размеченой по ТП/СЛ - ничего интересного не показали.
Для начала интересно просто на демо пару месяцев посмотреть.
А уж потом вкладываться в копирование или повторение метода.
Мои эксперименты на алглибовском лесе и одиночном дереве с приращениями цен на входе и с целевой размеченой по ТП/СЛ - ничего интересного не показали.
я дошел до правильного конструирования целевых только через год, причем через изменение их параметров можно менять акураси предсказуемым образом
на демо да, тесты покажут
у алглиб леса есть непонятная для меня проблема - чем больше сэмплов тем он больше переобучается
возможно, есть смысл для него делать ван хот, т.е. преобразовать фичи в категориальные. Деревья будут не такие огромные