Рассчитать вероятность разворота - страница 8

 
Aleksey Nikolayev:

Ок, возьмём тогда плотность распределения Коши или Лапласа.

Дык при чем тут Коши и Лаплас) меня не интересует вид распределения, и я не планирую его устанавливать)

И параметры гауссианы не нужны. Вопрос другой же.

 
secret:

... Насколько она близка к гауссиане, в каких местах отклоняется от нее и на сколько ...

Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.

Ну или я совсем не понял вопроса.

 
Aleksey Nikolayev:

Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.

Ну или я совсем не понял вопроса.

Алексей, как можно применить аналогию распределения Коши в практике?

Интересен поскриптум, он не прозвучал

 
Aleksey Nikolayev:

Просто хотелось понять, как бы вы ответили на этот вопрос в гипотетическом случае, когда достоверно известно, что данные распределены точно в соответствии со стандартным распределением Коши. Тогда проще было бы ответить и в случае с реальными данными. Например, что-нибудь в том духе, что берём ту гауссиану, для которой сумма модулей отклонений децилей минимальна и тд.

Ну или я совсем не понял вопроса.

Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.

Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.

Т.е. фиттинг произойдет в основном по точкам из центра распределения.

А мне кажется, что все точки должны в равной мере участвовать.

Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать.

 
secret:

Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.

Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.

Т.е. фиттинг произойдет в основном по точкам из центра распределения.

А мне кажется, что все точки должны в равной мере участвовать.

Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать..

Есть причины, чтобы "участие" точек, которые встречаются редко, тем не менее было таким же, как и у близких к медиане (центру), встречающихся гораздо чаще? За что такое усиление роли в аппроксимации? Не выйдет ли, что "хвост виляет собакой"?

Вообще-то для управления ролью разных точек есть МНК с весами. Назначьте их, например, как величины, обратные к плотности вероятности нормального распределения, и все. Главное, чтобы сумма весов осталась 1. Кстати, а что такое "линейная аппроксимация по МНК", если не аппроксимация прямой линией?

Ядерная оценка неизвестной плотности вероятности
Ядерная оценка неизвестной плотности вероятности
  • www.mql5.com
Совершенствование языка MQL5 в плане его быстродействия и постоянный рост производительности персональных компьютеров привели к тому, что пользователи платформы MetaTrader 5 все чаще для анализа рынка стали использовать достаточно сложные, развитые математические методы. Эти методы могут принадлежать различным областям экономики, эконометрики...
 
Vladimir:

Есть причины, чтобы "участие" точек, которые встречаются редко, тем не менее было таким же, как и у близких к медиане (центру), встречающихся гораздо чаще? За что такое усиление роли в аппроксимации? Не выйдет ли, что "хвост виляет собакой"?

Вообще-то для управления ролью разных точек еть МНК с весами. Назначьте их, например, как величины, обратные к плотности вероятности нормального распределения, и все. Главное, чтобы сумма весов осталась 1. Кстати, а что такое "линейный" МНК?

1. Конечно есть. Хвосты ведь большой величины. Применительно к рынку - редкие, но большие убытки. Это не усиление роли, это компенсация недостатка роли, в результате - придание равных ролей всем точкам.

2. Про МНК с весами я знаю. Вопрос не в технике аппроксимации, а в её идеологии.

3. Когда между величинами предполагается линейная связь.

 
secret:

1. Конечно есть. Хвосты ведь большой величины. Применительно к рынку - редкие, но большие убытки.

2. Про МНК с весами я знаю. Вопрос не в технике аппроксимации, а в её идеологии.

3. Когда между величинами предполагается линейная связь.

1. Это уже не вероятностный подход. Хвосты распределения вероятности означают малозначительные редкие случаи, а у главных, значительных, есть свое распределение, быстро убывающее к краям. 

2. Вопрос был такой: "Кстати, Алексей, и Владимир, подскажите. Допустим, мы хотим некие данные аппроксимировать нормальным распределением. Хвосты и середина распределения должны иметь одинаковый вес в аппроксимации, как я полагаю?"

Ответ - нет. Если моделировать задачу вероятностными методами, то, конечно же, важнее те события, которые встречаются чаще других, то есть вероятнее. Это - идеологически.

3. Линейная причинно-следственная связь, имеете в виду? А МНК не все равно, какая там связь?

 
secret:

Ну, обычная линейная аппроксимация по МНК. Берем ту гауссиану, для которой сумма квадратов отклонений минимальна.

Вопрос в том, что в центре распределения величина отклонений будет допустим порядка 0.1. А на хвостах, допустим, порядка 0.01.

Т.е. фиттинг произойдет в основном по точкам из центра распределения.

А мне кажется, что все точки должны в равной мере участвовать.

Для этого можно либо взять логарифмический масштаб на вертикальной оси, либо вместо отклонений-разностей брать отклонения-частные, т.е. разделить одно распределение на другое, и потом уже аппроксимировать.

Несколько напоминает критерий согласия Пирсона (хи-квадрат). Посмотрите у Кобзаря в третьей главе. Надо только чётко разобраться в отличии случая простой нулевой гипотезы, от сложной, когда параметры распределения неизвестны и оцениваются по выборке (например посредством минимизации статистики хи-квадрат).

 
Vladimir:

1. Это уже не вероятностный подход. Хвосты распределения вероятности означают малозначительные редкие случаи, а у главных, значительных, есть свое распределение, быстро убывающее к краям. 

2. Вопрос был такой: "Кстати, Алексей, и Владимир, подскажите. Допустим, мы хотим некие данные аппроксимировать нормальным распределением. Хвосты и середина распределения должны иметь одинаковый вес в аппроксимации, как я полагаю?"

Ответ - нет. Если моделировать задачу вероятностными методами, то, конечно же, важнее те события, которые встречаются чаще других, то есть вероятнее. Это - идеологически.

3. Линейная причинно-следственная связь, имеете в виду? А МНК не все равно, какая там связь?

1. Они НЕ малозначительны. Один такой "малозначительный" случай может привести к потере всего, что заработано на "главных".

3. Линейная корреляционная связь. МНК все равно, линейной я называл аппроксимацию, а не МНК.

 
Aleksey Nikolayev:

Несколько напоминает критерий согласия Пирсона (хи-квадрат). Посмотрите у Кобзаря в третьей главе. Надо только чётко разобраться в отличии случая простой нулевой гипотезы, от сложной, когда параметры распределения неизвестны и оцениваются по выборке (например посредством минимизации статистики хи-квадрат).

Дык, нет же задачи оценивать параметры распределения)

Причина обращения: