Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 596
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Пробуйте кросс-валидацию (K-fold).
Как она поможет усилить влияние свежих данных?
Ну сами прикиньте, Вы модель обучаете скармливая отдельные блоки данных, что даст модели некоторую независимость от последовательности таймсерии, что и приводит к тому, что новые данные будут оценены без "предвзятости".
"независимость от последовательности таймсерии" обеспечивается перемешиванием. Без него, модель вообще не к чему не приходит.
А вопрос про то, как при перемешивании усилить значимость свежайших данных, чтобы модель быстрее схватывала новые тенденции рынка.
"независимость от последовательности таймсерии" обеспечивается перемешиванием. Без него, модель вообще не к чему не приходит.
А вопрос про то, как при перемешивании усилить значимость свежайших данных, чтобы модель быстрее схватывала новые тенденции рынка.
Т.е обучение в 2 шага?
Обучение на большом объеме данных + дообучение полученной модели на свежих данных.
Можно попробовать.
У меня была мысль, просто добавить свежие данные 2 -3 раза в общий массив обучающих данных. Даже при перемешивании из значимость повысится.
Я вот и подумал, если все перемешивается, то как сделать, чтобы свежие данные сильнее влияли на обучение?
Есть такой трюк - продублировать самые свежие обучающие примеры несколько раз.
А например в пакете gbm можно выставить некий коэфициент важности каждого обучающего примера, но это не нейронка, я просто как пример привёл.
"независимость от последовательности таймсерии" обеспечивается перемешиванием. Без него, модель вообще не к чему не приходит.
В большинстве моделей вообще нету такого понятия как зависимость от последовательности примеров. В нейронках например вычисляется ошибка для каждого обучающего примера, затем суммма всех ошибок влияет на изменения весов. От перемены мест слагаемых сумма не меняется.
Но при этом часто в моделях есть параметр batch.size или подобное, он влияет на то какой процент от обучающих данных брать для обучения. Если взять очень малый процент данных для обучения, и отключить перемешивание - то модель каждый раз будет брать один и тотже небольшой набор, и всё закончится плохо. Конкретно про darch не знаю, но отключение перемешивания не должно вызывать полный провал, у вас что-то не так с другими параметрами.
Пробуйте кросс-валидацию (K-fold).
Полностью поддерживаю. Какие-бы громкие заявления ни делал автор модели о её защите от оверфита, только k-fold покажет правда ли это.
Вам пора округлиться и сделать вывод.
скоро будет.. "почти доделал"
такой жести я еще никогда в жизни не делал
скоро будет.. "почти доделал"
такой жести я еще никогда в жизни не делал