От теории к практике - страница 365

 
Вот котяра - я ж его просил пока помолчать. Щас я ему задам. Пардон, господа, за внутрисемейные разборки в прямом эфире.
 
Alexander_K:

Господа!!!!!!!!!

А ведь дело близится к финалу. Финита ля комедия, что называется.

Уверяю Вас, что потоки Эрланга - ключ к решению задачи.

Вот, буквально, только что проверил котировки за эту неделю по AUDCAD.

1. Про равномерном считывании котировок не помогают никакие интервалы времени. Все равно, хоть на М1, хоть на М5 и т.д. никакого симметричного распределения приращений, хотя бы отдаленно напоминающего нормальное, либо Лапласа НЕТ. Невозможно получить, вот что хотите делайте.

2. При переходе от простейшего потока к потоку Эрланга 300-го порядка (что-то вроде М5) уверенно наблюдается распределение Лапласа для приращений.

Далее пока не проверял.

С уважением,

кот Шредингера.

т.е. экспоненциальное считывание можно убрать, или оно все равно первично, а потом уже Эрланг?

 
Maxim Dmitrievsky:

т.е. экспоненциальное считывание можно убрать, или оно все равно первично, а потом уже Эрланг?

Получается можно сразу задать генератор СЧ с распределением Эрланга https://en.wikipedia.org/wiki/Erlang_distribution 300-го порядка и считывать через эти промежутки времени тиковые котировки. Меньшие порядки можно не рассматривать - переход к распределению Лапласа наблюдается только с 300.

К сожалению, я не знаю такого "лапласовского процесса" в отличие от винеровского. Но, все равно это должно значительно облегчить решение задачи.

Erlang distribution - Wikipedia
Erlang distribution - Wikipedia
  • en.wikipedia.org
Erlang Parameters shape , rate (real) alt.: scale (real) Support PDF λ k x k − 1 e − λ x ( k − 1 ) ! {\displaystyle {\frac {\lambda ^{k}x^{k-1}e^{-\lambda x}}{(k-1)!}}} CDF γ ( k , λ x ) ( k − 1 ) ! = 1 − ∑ n = 0 k − 1 1 n ! e − λ x ( λ x ) n {\displaystyle {\frac {\gamma...
 
Alexander_K2:

Получается можно сразу задать генератор СЧ с распределением Эрланга https://en.wikipedia.org/wiki/Erlang_distribution 300-го порядка и считывать через эти промежутки времени тиковые котировки. Меньшие порядки можно не рассматривать - переход к распределению Лапласа наблюдается только с 300.

К сожалению, я не знаю такого "лапласовского процесса" в отличие от винеровского. Но, все равно это должно значительно облегчить решение задачи.

А есть еще q-gaussian распределение, оно здесь как-то может быть в тему? там что-то и про энтропию и про все на свете, просто там коды уже есть :)

не понял из статьи ничего пока что

 
Пока А_К2 тут дергается с потоками Эрланга, мы все тут давно его уже имеем.) Берем минутные данные, скажем Close, и уже имеем поток Эрланга где-то 90-100 порядка. И все распределения у нас уже там, где и должны быть. Чего тут думать-то - трясти надо.
 
Yuriy Asaulenko:

С Close на минутках работают все. Вот тут Вы вступаете в конкурентную борьбу со всеми, даже папуасами. А в потоках Эрланга - Вы один, да еще и с распределением Лапласа с его известной квантильной функцией.

 
Alexander_K2:

С Close на минутках работают все. Вот тут Вы вступаете в конкурентную борьбу со всеми, даже папуасами. А в потоках Эрланга - Вы один, да еще и с распределением Лапласа с его известной квантильной функцией.

Угу. Уточните вы распределение на 2-3% - вы эти погрешности на графике даже не заметите.)) Здесь у Вас преимущества нет, никакого, даже перед папуасами.)

 
Alexander_K2:

С Close на минутках работают все. Вот тут Вы вступаете в конкурентную борьбу со всеми, даже папуасами. А в потоках Эрланга - Вы один, да еще и с распределением Лапласа с его известной квантильной функцией.

Лапласа(двустороннее симметричное экспоненциальное), Экспоненциальное как частный случай распределения Эрланга при k=1,Гамма-распределения аналог непрерывного геометрического и простейшего потока Пуассона и частным случаем распределения Вейбулла имеет ключевое свойство-отсутствие памяти.                                                      Распределение Лапласа хоть и стремится к нормальному, но имеет более плотные хвосты.

 
Yuriy Asaulenko:
Пока А_К2 тут дергается с потоками Эрланга, мы все тут давно его уже имеем.) Берем минутные данные, скажем Close, и уже имеем поток Эрланга где-то 90-100 порядка. И все распределения у нас уже там, где и должны быть. Чего тут думать-то - трясти надо.

Не получится астрономического времени, оно будет смещаться, это операционное время.

 
Novaja:

Лапласа(двустороннее симметричное экспоненциальное), Экспоненциальное как частный случай распределения Эрланга при k=1,Гамма-распределения аналог непрерывного геометрического и простейшего потока Пуассона и частным случаем распределения Вейбулла имеет ключевое свойство-отсутствие памяти.                                                      Распределение Лапласа хоть и стремится к нормальному, но имеет более плотные хвосты.

Хвосты - это не память. Память - это зависимость следующего приращения от предыдущего.

Распределения не несут ни малейшей информации о наличии/отсутствии памяти - для этого нужно расссматривать условные распределения или автокорреляцию, что по сути одно и то же.

Простейшая иллюстрация: любой ряд приращений я могу перемешать(поменять произвольно приращения местами). Память при этом может как появиться, так и исчезнуть. А распределение останется неизменным.

Граждане страждущие, ну возьмите уже в руки гугл, и изучите наконец матчасть. А то смешно читать вас.

Причина обращения: