Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3525

 
Aleksey Nikolayev #:

Решил немного разбавить крутое МО убогим матстатом)
Вспомнил высказывания одного местного товарища, что "цены разворачиваются по расписанию".

Нужно было уточнить расписание, если это не «без пяти полпятого», тогда только обращать внимание :)
 
Maxim Kuznetsov #:

график волатильности внутри суток показывает в первую очередь, что есть моменты когда прочие расчёты превращаются в тыкву. Кратный рост/падение за небольшой промежуток времени сводят оконные функции (корреяцию в том числе ) с ума

Причём здесь это? Корреляция считалась, по сути, также как волатильность. Например, для Х=1 бралась выборка из всех приращений за 1-ю минуту и смотрелась её корреляция с выборкой из всех последующих приращений за 2-ю минуту. И так далее для всех Х<=1440. Оконная функция устроена по другому.

Код на R

# r - датафрейм с двумя столбцами:
# r$r - последовательность минутных ретурнов, упорядоченная по времени
# r$n - номер минутного бара в сутках
COR <- rep(0,nb); NBAR <- 1:1440
for (i in NBAR) {
indx <- which(r$n[-length(r$n)]==i)
COR[i] <- cor(r$r[indx],r$r[indx+1], method="pearson")}

plot(NBAR,COR,type="l")
 
Aleksey Nikolayev #:

Причём здесь это? Корреляция считалась, по сути, также как волатильность. Например, для Х=1 бралась выборка из всех приращений за 1-ю минуту и смотрелась её корреляция с выборкой из всех последующих приращений за 2-ю минуту. И так далее для всех Х<=1440. Оконная функция устроена по другому.

Код на R

будем точны в формулировках: считалась НЁХ... корреляция посчитанная по сути как волатильность - это именно она. Причём авто :-) авто-НЁХ

вопрос без надежды на ответ: а что хотели увидеть ? 

 
Maxim Dmitrievsky #:
Нужно было уточнить расписание, если это не «без пяти полпятого», тогда только обращать внимание :)
А вдруг там грааль зарыт?) Надо было проверить)
 

Maxim Kuznetsov #:

а что хотели увидеть ? 

Очевидно, расписание разворота цен)

Жаль, что оно оказалось несуществующим)

 
Ну а как ещё искать разворот "по расписанию"? Если он всегда происходит сразу после бара с номером Х, то корреляция приращений Х и Х+1 должна быть отрицательной, а у предыдущих и последующих - положительной. Разве это не очевидно?
 
Maxim Dmitrievsky #:

Если не касаться тех. части (конкретной реализации, которая очень простая), то более грамотное разнесение классов в пространстве признаков, чтобы классы меньше пересекались, но при этом метки оставались профитными. Тогда энтропия снижается. Позже попробую сделать визуализацию, потому что самому интересно наглядно посмотреть, из-за чего стало лучше. Есть ли видимые отличия.

Можно просто пофантазировать на тему любого пространства признаков и подумать как можно распределить метки в нем. Тогда значимость признаков снижается, возрастает значимость разметки.

Всё что мне фантазируется - это мой метод - где диапазоны предикторов по сути обнуляются, если обнаружено смещение вероятности для нулевого класса, что избавляет от противоречий.

В чём суть Вашего метода?

 
Aleksey Vyazmikin #:

Всё что мне фантазируется - это мой метод - где диапазоны предикторов по сути обнуляются, если обнаружено смещение вероятности для нулевого класса, что избавляет от противоречий.

В чём суть Вашего метода?

Если в вашей терминологии, то 0 и 1 разнесены по разным диапазонам предикторов.

 
Maxim Dmitrievsky #:

Если в вашей терминологии, то 0 и 1 разнесены по разным диапазонам предикторов.

Я правильно понял, что происходит условная чистка - замена 1 на 0 после случайной разметки?

Или типа подбираете предикторы для этого?

Но, как увязываете это с устойчивостью смещения вероятности, ведь на обучении можно сотворить что угодно, а что будет потом?

 
Aleksey Vyazmikin #:

Я правильно понял, что происходит условная чистка - замена 1 на 0 после случайной разметки?

Или типа подбираете предикторы для этого?

Но, как увязываете это с устойчивостью смещения вероятности, ведь на обучении можно сотворить что угодно, а что будет потом?

Удаляю примеры, которые на условной границе разделения классов. Все по канонам МО. Улучшение устойчивости получается, из-за более простых границ.

Постепенно снижаю кол-во признаков еще, есть модели, которые неплохо работают на 2-х машках. То есть можно уменьшить кол-во признаков до 2-х.

Бустинг обучается максимум на 100 итерациях потом. Наверное это что-то из Активного обучения.
Градиентный бустинг в задачах трансдуктивного и активного машинного обучения
Градиентный бустинг в задачах трансдуктивного и активного машинного обучения
  • www.mql5.com
В данной статье вы познакомитесь с методами активного машинного обучения на реальных данных, узнаете какие плюсы и минусы они имеют. Возможно, эти методы займут свое место в вашем арсенале моделей машинного обучения. Термин трансдукции был введен Владимиром Наумовичем Вапником, изобретателем машины опорных векторов или SVM (support vector machine).