Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1743
Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Посомтрел источник но нигде не увидел однозначного вывода о плохой работе данного метода....
ну шо там?
Посмотрите очень интересный пакет TSrepr (Time Series Representations ) в R.
"Time series representation methods can be divided into four groups (types) (Ratanamahatana et al. (2005)):
In nondata adaptive representations, the parameters of transformation remain the same for all time series, irrespective of their nature. In data adaptive representations, the parameters of transformation vary depending on the available data. An approach to the model-based representation relies on the assumption that the observed time series was created based on basic model. The aim is to find the parameters of such a model as a representation. Two time series are then considered as similar if they were created by the same set of parameters of a basic model. In data dictated approaches, the compression ratio is defined automatically based on raw time series such as clipped (Aghabozorgi, Seyed Shirkhorshidi, and Ying Wah (2015)).
Most famous (well known) methods for nondata adaptive type of representations are PAA (Piecewise Aggregate Approximation), DWT (Discrete Wavelet Transform), DFT (Discrete Fourier Transform), DCT (Discrete Cosine Transform) or PIP (Perceptually Important Points). For data adaptive type of representations, it is SAX (Symbolic Aggregate approXimation), PLA (Piecewise Linear Approximation) and SVD (Singular Value Decomposition). For model-based representations it is ARMA, mean profiles or estimated regression coefficients from a statistical model (e.g. linear model). The data dictated is the less known type of representation and the most famous method of this type is clipping (bit-level representation) (Bagnall et al. (2006)).
In the TSrepr package, these time series representation methods are implemented (the function names are in brackets):
Nondata adaptive:
Data adaptive:
Model-based:
Data dictated:
Очень интересные преобразования дает, в том числе кластеризацию.
Удачи
Посмотрите очень интересный пакет TSrepr (Time Series Representations ) в R.
Это же я вам этот пакет когда то показал, помните когда я вас просил сделать скрипт для мт4, там тренировалась нейронка из пакета nnfor , а целевая была PIP - Perceptually Important Points (repr_pip) из TSrepr :)
Владимир! У меня к вам несколько вопросов , если позволите...
1) Скажите какую максимальную ошибку вы смогли достичь на классификации направления зигзага скажем на евродоларе часовике ? И использовали ли noisefilter при этом
2) Ухудшает ли качество обучения "дискретизация" предикторов, которую вы описывали в своих статьях
3) Я хочу попробовать сделать некий мета лернинг , на самом низком уровне, те суть идеи в следующем :
п1. тренируем пускай форест на данных
п2. вытаскиваем все правила которые форест нагенерил и представляем их в виде новых предикторов , каждое правило это предиктор, там будет 500-1000 правил. Предикторы получаться "разреженные" но что делать(
п.3 Тренируем на правилах предикторах новую модель...
Задумка в том чтобы
1) увеличить количество предикторов
2) получение более сложных и глубоких правил , те правил более иерархически сложных
3) Форест выдает предсказание как сумму прогнозов всех правил (деревьев) , мне кажется что если рассматривать не сумму правил а правила в отдельности то можно более качественней разделить метки класса, возможно найти какие то уникальные комбинации из правил итп.
А вопрос в том : не является ли то что я только что написал обычными градиентным бустингом?
4) А и еще , где взять те спектральные индикаторы что вы используете satl, fatl итп.
Здесь нашел
Почитал тему, к такому же выводу пришли. А предсказание в cssa по хитрому сделано, постепенно предсказывают на шаг вперед, неужели это на столько эффективно?
Есть какие нибудь сравнения скорости между бпф и ssa? А то взять комплексные вейвлеты и будут те же фигуры Лессажу. Только не понятно как их в оптимизатор загонять, это же больше для визуальной настройки подходит.
cssa переводится как Causal SSA. Этот метод есть в книге 2013 года.
Олега с Миклухой забанили?))
Олега разбанили а Миклоха почему то ............
Это же я вам этот пакет когда то показал, помните когда я вас просил сделать скрипт для мт4, там тренировалась нейронка из пакета nnfor , а целевая была PIP - Perceptually Important Points (repr_pip) из TSrepr :)
Владимир! У меня к вам несколько вопросов , если позволите...
1) Скажите какую максимальную ошибку вы смогли достичь на классификации направления зигзага скажем на евродоларе часовике ? И использовали ли noisefilter при этом
2) Ухудшает ли качество обучения "дискретизация" предикторов, которую вы описывали в своих статьях
3) Я хочу попробовать сделать некий мета лернинг , на самом низком уровне, те суть идеи в следующем :
п1. тренируем пускай форест на данных
п2. вытаскиваем все правила которые форест нагенерил и представляем их в виде новых предикторов , каждое правило это предиктор, там будет 500-1000 правил. Предикторы получаться "разреженные" но что делать(
п.3 Тренируем на правилах предикторах новую модель...
Задумка в том чтобы
1) увеличить количество предикторов
2) получение более сложных и глубоких правил , те правил более иерархически сложных
3) Форест выдает предсказание как сумму прогнозов всех правил (деревьев) , мне кажется что если рассматривать не сумму правил а правила в отдельности то можно более качественней разделить метки класса, возможно найти какие то уникальные комбинации из правил итп.
А вопрос в том : не является ли то что я только что написал обычными градиентным бустингом?
4) А и еще , где взять те спектральные индикаторы что вы используете satl, fatl итп.
1. Помню эту историю с пакетом. Перспективный пакет.
2. Лучший результат с ансамблем ELM - Acc=0.8+-0.1. Обработка шумовых примеров обязательна. Ее можно проводить не только с noisefilter. Accuracy не самый важный показатель качества для ТС. Для наших задач более важно иметь максимальную величину среднего вознаграждения на бар на конкретном отрезке времени.
3. Дискретизация убирает проблему выбросов, делает связь предикторов с целевой более линейной. Но значимого улучшения качества классификации я пока не получил. Продолжаю в этом направлении копать. Появилось много новых техник.
4. Не понимаю почему Вы увязли в простом лесу. Сейчас эта территория испахана вдоль и поперек. Появились десятки новых вариантов RF. Последний экзотический и пока еще сыроватый - gensemble. Лес в узлах которого может быть любая модель, а не только дерево решений.
Попробуйте готовые решения, не нужно изобретать велосипед, лучше научиться хорошо ездить на готовых.
Я сейчас занялся внедрением пакета интеграции Питона с МТ5. Жаль, что они остановили интеграцию с R.
Удачи