Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 31
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Юрий, первая проба на ваших данных:
Два разных набора значений параметров для обучения. Примечательно, что на кроссвалидации AUC ниже плинтуса.
В общем, точность 51.5% на тесте - это лучшее, что получилось.
Даже не знаю, как у вас получается порядка 60%.
Да выкинуть надо этот набор предикторов.
Если тупо взять приращения всего со всем, несколько осцилляторов всего более 100 предикторов с числом наблюдений свыше 5000, т.е. Н1, то из такого набора можно будет отобрать штук 10-15 предикторов, которые не только дадут ошибку предсказания менее 40%, но, что главнее всего, дадут НЕ ПЕРЕОБУЧЕННУЮ модель.
Да выкинуть надо этот набор предикторов.
Если тупо взять приращения всего со всем, несколько осцилляторов всего более 100 предикторов с числом наблюдений свыше 5000, т.е. Н1, то из такого набора можно будет отобрать штук 10-15 предикторов, которые не только дадут ошибку предсказания менее 40%, но, что главнее всего, дадут НЕ ПЕРЕОБУЧЕННУЮ модель.
В общем, лучше, чем 51.5% у меня не получалась точность классификации. Соответственно, остальные метрики тоже будут близки к случайному гаданию.
Сбалансированность ответов на тесте почти идеально 50/50.
Юрий, жду ваших откровений.
В общем, лучше, чем 51.5% у меня не получалась точность классификации. Соответственно, остальные метрики тоже будут близки к случайному гаданию.
Сбалансированность ответов на тесте почти идеально 50/50.
Юрий, жду ваших откровений.
Я ничего не скрываю. Для старой версии, результаты которой я уже приводил выше, вся инфа находится в открытом доступе:
Описание метода построения бинарного классификатора: https://sites.google.com/site/libvmr/
Исходники Java с комментариями: https://sourceforge.net/p/libvmr/code/HEAD/tree/trunk/
Сборки: https://sourceforge.net/projects/libvmr/files/
Юрий, спасибо.
Если набор линейно сепарабелен, то количество потенциальных разделяющих гиперплоскостей бесконечно. В таком случае необходимо найти какой-то критерий выявления адекватной гиперплоскости. Один из таких критериев был сформулирован для метода опорных векторов в книге: Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. Точнее, в данной книге рассматриваются множество различных критериев.
И SVM и VMR являются методами опорных векторов.
Какой из методов лучше или хуже, можно долго спорить. Однако, можно взять и проверить обобщающую способность и тогда всё встанет на свои места.
Если набор линейно сепарабелен, то количество потенциальных разделяющих гиперплоскостей бесконечно. В таком случае необходимо найти какой-то критерий выявления адекватной гиперплоскости. Один из таких критериев был сформулирован для метода опорных векторов в книге: Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. Точнее, в данной книге рассматриваются множество различных критериев.
И SVM и VMR являются методами опорных векторов.
Какой из методов лучше или хуже, можно долго спорить. Однако, можно взять и проверить обобщающую способность и тогда всё встанет на свои места.
Проблемы надо решать по мере поступления, а ставить телегу (модель) впереди лошади (предикторов) абсолютно пустое занятие. А уж тем более сравнивать телеги, когда не известно что в них запряжено и запряжено ли вообще.
До применения любого типа моделей необходимо очистить перечень предикторов от шума, оставив только предикторы, имеющие "отношение" к целевой переменной. Если этого не делать, то запросто можно скатиться к построению моделей на основе колец Сатурна, кофейной гущи и других предикторов, широко используемых на практике несколько сот лет.
Выше Dr.Trader попытался проделать работу по удалению шума из его наборе предикторов.
Результат отрицательный.
Я считаю, что причиной отрицательности результата является малое число наблюдений при очень большом числе предикторов. Но это то направление, куда надо копать до применения ЛЮБЫХ моделей.
Если набор линейно сепарабелен, то количество потенциальных разделяющих гиперплоскостей бесконечно. В таком случае необходимо найти какой-то критерий выявления адекватной гиперплоскости. Один из таких критериев был сформулирован для метода опорных векторов в книге: Вапник В. Н., Червоненкис А. Я. Теория распознавания образов. М.: Наука, 1974. Точнее, в данной книге рассматриваются множество различных критериев.
И SVM и VMR являются методами опорных векторов.
Какой из методов лучше или хуже, можно долго спорить. Однако, можно взять и проверить обобщающую способность и тогда всё встанет на свои места.
В R есть все, что Вам нужно. Смотрите fTrading::sharpeRatio.
Да и PerformanceAnalitics не мешает посмотреть.
Удачи