Показатель Херста - страница 37

 

Зачем так далеко ходите?

Тут бы с обычными индюками разобратся... 

 
faa1947:

В своих ТС всегда пытаюсь найти оптимальную ширину окна. Она колеблется в пределах 30-70 наблюдений (для Н1).


А какое окно конкретно? Вот, например, гауссовское подавляет граничные эффекты очень существенно по сравнению с обычным прямоугольным (оно и в частотной области тоже будет гауссовским, т.е. даст -40 дБ на октаву причем без побочных максимумов). Можно добиться тогда такой же реактивности, беря в расчет больше значений сигнала.
 
Dersu:

Зачем так далеко ходите?

Тут бы с обычными индюками разобратся... 


Это хто?))
 
Рядовой Dersu !
 
Dersu:
Рядовой Dersu !

Вольно! Че за конверты такие, красные и зеленые?
 

Конверты как конверты.

Встоенные. 

 
Праздник?
 

Суббота, праздник...

Вон из темы ? 

 
faa1947:

Если посмотреть на " H в большей степени характеризует внешнюю среду", то следует обратить внимание на английские термины, употребляемые в связи с Херстом. Вот копипаст из монографии по ВР: 

 

Some time series exhibit marked correlations at high lags, and they are referred
to as long-memory processes. Long-memory is a feature of many geophysical
time series. Flows in the Nile River have correlations at high lags,
and Hurst (1951) demonstrated that this affected the optimal design capacity
of a dam. Mudelsee (2007) shows that long-memory is a hydrological property
that can lead to prolonged drought or temporal clustering of extreme
floods. At a rather different scale, Leland et al. (1993) found that Ethernet
local area network (LAN) traffic appears to be statistically self-similar and a
long-memory process. They showed that the nature of congestion produced by
self-similar traffic differs drastically from that predicted by the traffic models
used at that time. Mandelbrot and co-workers investigated the relationship
between self-similarity and long term memory and played a leading role in

establishing fractal geometry as a subject of study.

 Прошу отметить такие слова

Some time series exhibit marked correlations at high lags

И

shows that long-memory

Попытался выяснить: что такое длинная память? Это оказывается автокорреляции свыше 40 наблюдений! Но в котирах столь длительная корреляция одного знака встречается крайне редко. Во всяком случае, потратив час, я не нашел.

Большое число людей пытаются использовать показатель Херста. Ни разу не видел положительного результата. Может быть сначала надо найти котиры. в которых long memory? 

В любых котирах можно идентифицировать этот самый long memory. Но АКФ здесь не подходит.
Петерс дает интересное определение длинной памяти. Почитайте. В его книгах на эту тему там много интересного. По нему выходит, что такие процессы банальным АКФ не измерить. АКФ действует в масштабе 5-6 лагов и все. Если H выразить как блуждание частицы с разбеганием равному квадратному корню из расстояния, то получаем частный случай нормального распределения StdDev = Sqrt(T) = T^(0,5). Так вот, если рассеивание частицы будет чуть выше или ниже 0.5, то это возможно в одном и только в одном случае: частица должна помнить свое прошлое состояние, а значит такой процесс будет обладать памятью. Т.е. H, это все-таки характеристика не внешнего воздействия, а зависимость от предыдущего состояния процесса. И если траектория убегания сохраняется, то стало быть она зависит от предыдущих значений и период памяти можно высчитать. И зачастую бывает так, что на всех масштабах вычислений угол наклона не меняется, и при этом, он не равен 0,5. В таком случае говорят, что процесс - истинный процесс Херста с бесконечной памятью. Только вот АКФ ничего такого не покажет.
 
C-4:
В любых котирах можно идентифицировать этот самый long memory. Но АКФ здесь не подходит.
Петерс дает интересное определение длинной памяти. Почитайте. В его книгах на эту тему там много интересного. По нему выходит, что такие процессы банальным АКФ не измерить. АКФ действует в масштабе 5-6 лагов и все. Если H выразить как блуждание частицы с разбеганием равному квадратному корню из расстояния, то получаем частный случай нормального распределения StdDev = Sqrt(T) = T^(0,5). Так вот, если рассеивание частицы будет чуть выше или ниже 0.5, то это возможно в одном и только в одном случае: частица должна помнить свое прошлое состояние, а значит такой процесс будет обладать памятью. Т.е. H, это все-таки характеристика не внешнего воздействия, а зависимость от предыдущего состояния процесса. И если траектория убегания сохраняется, то стало быть она зависит от предыдущих значений и период памяти можно высчитать. И зачастую бывает так, что на всех масштабах вычислений угол наклона не меняется, и при этом, он не равен 0,5. В таком случае говорят, что процесс - истинный процесс Херста с бесконечной памятью. Только вот АКФ ничего такого не покажет.

К сожалению, по этому вопросу у меня собственного мнение нет. 

Но могу сослаться на книгу 

Cowpertwait and A.V. Metcalfe, Introductory Time Series with R, 159

Use R, DOI 10.1007/978-0-387-88698-5 8,

© Springer Science+Business Media, LLC 2009 

в главе 8 которой описан процесс подгонки FARIMA. В этом процессе используется АКФ.  

Прицепил текст. К сожалению формулы и теоретической части не получились. 

Но конкретно описан процесс подгонки FARIMA 

Файлы:
long.zip  203 kb
Причина обращения: