Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2526

 
LenaTrap #:

На реальном рынке? Лично я придерживаюсь какой то такой философии:

*но не очень хочу это обсуждать, потому что без доказательств бесполезно обсуждать предположения

! в реальной торговле - не переиначивайте смысл...

да, философия, действительно, у каждого своя... цель статистики - объяснять дисперсии

и формализовывать зависимости из независимых испытаний

 
Доктор #:

У меня другой вопрос. Вот считаем АКФ соседних значений в выборке бесконечного размера. Например, t1=1, t2=2. Получаем АКФ = sqrt(0.5) ~ 0.707. Теперь берем другие соседние значения, например, t1=10000, t2=10001.  Получаем АКФ = 1 (почти). Получается, соседние значения по разному коррелируют друг с другом. Это нормально?

Всё правильно, так и есть. Это вторая причина говорить о нестационарности СБ (первая - рост дисперсии со временем). Это только у стационарных процессов (по самому их определению) АКФ зависит только от разности времён АКФ(t1,t2)=АКФ(t1-t2). Именно поэтому для стационарных рядов АКФ обычно записывают как функцию одного аргумента t1-t2.

 
Доктор #:

Вопрос, конечно, нужно переадресовать Алексею. Но я бы ответил "без разницы". Речь, я предполагаю, идет о том, что СБ проходит путь пропорционально sqrt(t).

Имелась в виду известная задача "о разорении игрока". Можно использовать, например, для проверки статистической значимости эффекта "стремления" цен к каким-нибудь уровням.

 
Aleksey Nikolayev #:

Имелась в виду известная задача "о разорении игрока". Можно использовать, например, для проверки статистической значимости эффекта "стремления" цен к каким-нибудь уровням.

Вот это уже намного интереснее

Может вообще отказаться от точки зрения что рынок временной ряд, и наконец то сделать прорыв в анализе рынка..

 
Aleksey Nikolayev #:

Всё правильно, так и есть. Это вторая причина говорить о нестационарности СБ (первая - рост дисперсии со временем). Это только у стационарных процессов (по самому их определению) АКФ зависит только от разности времён АКФ(t1,t2)=АКФ(t1-t2). Именно поэтому для стационарных рядов АКФ обычно записывают как функцию одного аргумента t1-t2.

Ну, хорошо. Задам вопрос по-другому. Отличаются ли между собой две описанные ниже ситуации:

1) Имеем выборку бесконечного размера. Рассматриваем два момента времени n и (n-t). Считаем, что 1 <= (n-t) <= n. Рассчитываем АКФ((n-t),n)=sqrt((n-t)/n).

2) Имеем выборку длиной n. Рассчитываем выборочную АКФ с лагом t: АКФ(t) = sqrt((n-t)/n).

 
JeeyCi #:

хотя мне почему-то кажется, что если брать не delta изменение признака во времени, а подрядить какой индекс - то, возможно, эффект автокорреляции этих пересекающихся значений во временном пространстве можно как-то нивелировать... спорно... ведь close(t)/close(t-1) тоже имеет пересечение, а значит и автокорреляцию... хотя при TF>15min вроде автокорреляция исчезает (не замечена) -- сама лично не проверяла ... да и это ещё не тот индекс, который мне нужен...


Вам это правда наверное не нужно, но при любом тренде данные временного ряда начинают демонстрировать автокорреляцию, иногда очень высокую, что теоретически должно мешать многим моделям анализа\нейронным сетям.

Этот эффект правда сложно использовать для прогнозирования, потому что ничего не вечно, тренд сменяется ренджем, хаос порядком, случайно блуждающий временной ряд внезапно может уже давно не блуждать, и наоборот, а по такой оценке структуру процесса вы понять никак не сможете, это слишком просто, все равно что торговать выше 200SMA.

Но возможно стоит все таки проверить, как ваша нейронная сеть реагирует на автокорреляции, и попытаться их убрать, если они есть и мешают, обработка и правильная подготовка данных это по моему самое важное в работе с такими системами. У соседних элементов вообще не должно быть пересечения(если это то что я думаю?), если вы используете такие данные, это было бы большим чудом, если бы модель работала.

 
LenaTrap #:

Вам это правда наверное не нужно, но при любом тренде данные временного ряда

не переиначивайте: пытаясь что-то возразить мне - вы говорите всё равно о своём... лишь о временном ряде... (да и способы дискретизации никто не отменял)...

цена долгосрочно не от времени зависит, я уже не раз высказывала свою точку зрения (и не буду дублировать)... в общем, где в DL вы можете нарваться на автокорреляцию, я вам показала... а что будете брать за X и Y и для моделирования каких зависимостей - тоже уже 10-й раз пишу -- на усмотрение разработчика...

не я разрабатываю вашу модель - мне не надо доказывать поведение цены во времени... (может и зря вам черканула про DL - всё равно тут каждый о своём думает, что что-то опровергает или что-то кому-то доказывает -- вырывая по одному слову из любой дисциплины)... инженеры, занимающиеся МО-ем (коих тут нет) всё равно поймут всю узость дебатов про автокорреляцию (ради заумных речей) хоть в тренде, хоть в тиках, если модель строится в намного более широком аспекте и на более широких горизонтах обучающей совокупности, чем горизонты, где ваши блохи (автокорреляция) могут вылазить... на то это и Deep Learning (чтобы учесть всё)

... для меня вопрос трейдинга - не вопрос:

Aleksey Nikolayev #:

известная задача "о разорении игрока".

... поэтому я уже давно обхожу стороной этот бред... выявлено, что о моделировании здесь не имеют понятия, а кто имеет, тот не тратит время на эту ветку... ну и ладно, в сети много куда более толкового по DL, чем весь блатной жаргон, который уже вылился здесь без толку ...

по основам статистики вы, действительно, поболтайте лучше с академ.математиками, тут вам явно не ко мне надо отвечать... - мне не интересна ваша убеждённость в том, что автокорреляция чем-то рулит в DL... - 5-й раз пишу "это плохая модель" (не хочу писать 10-й)... пусть вам отвечают ваши академики (если мой ответ у вас вызвал лищь желание что-то доказывать)

 
Доктор #:

Ну, хорошо. Задам вопрос по-другому. Отличаются ли между собой две описанные ниже ситуации:

1) Имеем выборку бесконечного размера. Рассматриваем два момента времени n и (n-t). Считаем, что 1 <= (n-t) <= n. Рассчитываем АКФ((n-t),n)=sqrt((n-t)/n).

2) Имеем выборку длиной n. Рассчитываем выборочную АКФ с лагом t: АКФ(t) = sqrt((n-t)/n).

Разница в том, что в первом случае считается АКФ для всех возможных пар моментов времени, а во втором - один из моментов времени фиксирован t2=n и из рассмотрения выпадает много пар моментов времени (например, пара t1=1, t2=2). В общем случае АКФ - это функция двух аргументов. Только для стационарных процессов АКФ может рассматриваться как функция одного аргумента t=t1-t2 (лага).

Выборочная АКФ всегда считается по конкретной числовой выборке (реализации) процесса и всегда оказывается функцией от одного аргумента (величины лага). В этом основная причина того, почему выборочная АКФ по реализации СБ не является оценкой для его АКФ)

 
mytarmailS #:

Вот это уже намного интереснее

Может вообще отказаться от точки зрения что рынок временной ряд, и наконец то сделать прорыв в анализе рынка..

Одно другому не мешает. В современной финансовой математике вполне совмещаются подходы с непрерывным и дискретным видами времени. Проблему вижу в том, что открыто публикуемые конкретные применения этой науки плохо заточены под наши трейдерские нужды.

 
JeeyCi #:

не переиначивайте: пытаясь что-то возразить мне - вы говорите всё равно о своём... лишь о временном ряде... (да и способы дискретизации никто не отменял)...

цена долгосрочно не от времени зависит, я уже не раз высказывала свою точку зрения (и не буду дублировать)... в общем, где в DL вы можете нарваться на автокорреляцию, я вам показала... а что будете брать за X и Y и для моделирования каких зависимостей - тоже уже 10-й раз пишу -- на усмотрение разработчика...

не я разрабатываю вашу модель - мне не надо доказывать поведение цены во времени... (может и зря вам черканула про DL - всё равно тут каждый о своём думает, что что-то опровергает или что-то кому-то доказывает -- вырывая по одному слову из любой дисциплины)... инженеры, занимающиеся МО-ем (коих тут нет) всё равно поймут всю узость дебатов про автокорреляцию (ради заумных речей) хоть в тренде, хоть в тиках, если модель строится в намного более широком аспекте и на более широких горизонтах обучающей совокупности, чем горизонты, где ваши блохи (автокорреляция) могут вылазить... на то это и Deep Learning (чтобы учесть всё)


Да, я переиначила слова через свой собственный опыт. Пожалуйста простите. если обидела.

Причина обращения: