Обсуждение статьи "Градиентный бустинг (CatBoost) в задачах построения торговых систем. Наивный подход" - страница 7
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Это совершенно неправильный подход. Вы не можете создать модель на основе одного и того же набора данных для обучения и тестирования, а затем сказать, что она работает, это бесполезно и необоснованно. Это называется подгонкой модели под кривую. Такие модели хорошо выглядят на бумаге, но никогда не будут работать в реальном мире. Пожалуйста, используйте правильный подход к машинному обучению, есть несколько способов сделать это, но ваш совершенно неправильный.
Я думаю, что вы оба совершенно неправы, ребята. Статья, помеченная как "наивный подход", является введением в модель CatBoost. Никто не запрещает вам тестировать модель на новых данных. Также в конце статьи вы можете увидеть тест на новых данных + период обучения.
Просто читайте статьи внимательнее, потому что следующая часть уже на подходе.Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...
Что могу сказать
1) признаки точно не лучшие, есть огромный простор
2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)
3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)
В целом подход получился такой - максимально все "шевелим лишь бы на валидации получить хороший результат"
И отбираем самую лучшую модельку )))
И У меня получилось "нашевелить" этим способом
Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"
Ну как то так, не знаю что еще написать..
Глаза наверное сжег пока разобрался что ты тут на..вертил, хоть и все просто до нельзя , но все же тяжело воспринимать чужие мысли...
Что могу сказать
1) признаки точно не лучшие, есть огромный простор
2) перемешивать данные перед обучением классификатора не обязательно (Это абсолютно ничего не дает я проверил)
3) Что действительно ценного это целевая, именно она тащит всю статью (сравнивал с ЗЗ, ЗЗ в мусор)
В целом подход получился такой - максимально все "шевелим лишь бы на валидации получить хороший результат"
И отбираем самую лучшую модельку )))
И У меня получилось "нашевелить" этим способом
Но по факту , это тот же способ о котором я говорил когда оптимизировал веса нейронки, только я сразу на макс. прибыль "шевелил"
Ну как то так, не знаю что еще написать..
Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.
признаки да, можно более осмысленные пробовать. Юзай, улучшай
Без GMM так не работает. Плюс ты не заценил на каком коротком интервале можно делать обучение и как долго потом модель живет на новых данных. Это не предел, есть способы продлить жизнь. Весь подход это органичное ОДНО, нельзя разделять части.
признаки да, можно более осмысленные пробовать. Юзай, улучшай
завтра с gmm буду пробовать
завтра с gmm буду пробовать
А, ты именно про эту статью написал. Тогда да. Эта вводная, чтобы совсем крышу не сносило у читающего.
Да , решил по порядку разобраться
В целом, без Shuffle система сразу же начинает сливать ожидаемо.
теперь можете перейти к след. статье