Рассчитать вероятность разворота - страница 6

 
secret:

Так это сглаживание.

)

Это аппроксимация миксом гауссиан...

 
Mikhail Dovbakh:

)

Это аппроксимация миксом гауссиан...

Приближение смесью это немного другое.

Аппроксимация суммой гауссовских функций : Помогите решить / разобраться (М)
  • dxdy.ru
Есть набор экспериментальных данных Существуют ли какие-нибудь специальные методы для их аппроксимации функцией вида то есть как бы суммой гауссовских функций? Как можно найти неизвестные параметры ? МНК здесь вряд ли поможет, зависимости ведь нелинейные. Нет ли готовых научных исследований на эту тему? Если есть, скиньте пожалуйста ссылку. В...
 
Mikhail Dovbakh:

)

Это аппроксимация миксом гауссиан...

Ну дык, интересует же итоговый результат, а не отдельные гауссианы.

 
Aleksey Nikolayev:

Потом надо найти "прикладную статистику" Кобзаря и посмотреть там вторую главу)

Посмотрел, но даже слова такого "аппроксимация" не обнаружил)

Вообще странно. Там понапридумано миллион мудреных способов оценки. Кроме одного, самого понятного, простого и точного - аппроксимации.

Может я чего-то не понимаю?

 
secret:

Посмотрел, но даже слова такого "аппроксимация" не обнаружил)

Вообще странно. Там понапридумано миллион мудреных способов оценки. Кроме одного, самого понятного, простого и точного - аппроксимации.

Может я чего-то не понимаю?

Всяких разных оценок можно придумать огромное количество. Надо только потом установить их состоятельность и несмещённость, как минимум. Не для всех "точных, простых и понятных" оценок это верно, типичный пример - знаменатель n-1 в несмещённой оценке дисперсии.

Если существующая оценка к тому же эффективна и достаточна, то изобретение новых оценок либо вовсе бессмысленно, либо должно иметь какие-то дополнительные основания. Обычно это соображения робастности, работа с малоразмерными выборками, выбросы, пропущенные значения и тд.

 
secret:

Имеется в виду не временной ряд, а гистограмма близкая к нормальной.

Насколько же глубоко здесь люди залезли в вероятностные подходы и даже забыли, что гистограмма - всего лишь "способ графического представления табличных данных" (Вики), ничего не говорящий об их содержании. Насколько я могу догадываться, Вы по говорите о таблице значений относительных (отнесенных к их общей сумме) выборочных частот Hi какого-либо события x>xi, предположительно близких к нормальному распределению вероятностей. И о замене ее на значения вероятностей нормального распределения так, чтобы ошибка была минимальной в каком-то смысле. Чем Вас не устраивают формулы прямого расчета этих параметров, матожидания и дисперсии по их определению?

Если xi в таблице равноотстоящие, то:

- матожидание подгоняется просто как среднее арифметическое всех реализаций = взвешенное среднее табличных значений с весами, равными Нi из этой таблицы;

- дисперсия - как корень квадратный из среднеквадратического отклонения (веса - те же Hi), либо, если хотите большей точности оценки, не среднеквадратического, а стандартного отклонения (разница лишь в том, делить на n или на n-1). Оценка по стандартному отклонению - несмещенная.

 
Maxim Romanov:

...

Тут по оси х, отмечено, насколько шагов человек ушел от начальной точки, от -10 (влево) до +10 (вправо) и подписано с какой вероятностью он это делал в %. Как найти какая вероятность разворота была на каждом шаге?

Ваш пример, скорее всего, это результат моделирования приснопамятной доски Гальтона с отражателями. 

Во всяком случае, очень похоже.



очень правдоподобно при 10
итераций (т.е. доска типа 'домик') для марковской цепи с матрицей вероятностей переходов -

0.75 0.25 0 0 ... 0

0.25 0.5 0.25 0 ... 0

...

0 ... 0.25 0.5 0.25

0 ... 0 0.25 0.75

начальное состояние 0 0 0 0 0 1000 0 0 0 0 0. т.е. с относительного нуля)

 
Vladimir:

Чем Вас не устраивают формулы прямого расчета этих параметров, матожидания и дисперсии по их определению?

Например, они не показывают толстохвостость.

 
secret:

Например, они не показывают толстохвостость. А гауссиана, по ним построенная, скорее всего не сойдется с данными ни в хвостах, ни в центре.

 но тем не менее cущественное отличие только в крайних бункерах. Как я уже говорил выше, это из-за отражательных стенок.)


 
secret:

Например, они не показывают толстохвостость.

Ее не показывают вовсе не способы оценки параметров нормального распределения (подгонки, приближения). Это у самого нормального распределения не бывает толстых хвостов. Спросите у Александра_K2, он эти хвосты искал-искал. Просто взгляните на таблицу с единичными параметрами. Таблицы есть в каждом учебнике по ТВ, по-моему, и в каждом справочнике по математике. Как ни подгоняй, для ловли толстых хвостов нужно менять вариант распределения. А зачем Вам именно типовое распределение? Вообще именно распределение вероятностей? К чему эти штампы для "неких данных"? Или все-таки это не некие данные, а именно выборочные относительные частоты, как я догадывался?

Может быть, дело в том, что вероятностное представление вообще не описывает Ваши данные? Вспомните, как пляшет матожидание на картинках Yuriy Asaulenko https://www.mql5.com/ru/forum/221552/page162#comment_6399653 по курсам Forex. Уж не для них ли Вы хотите использовать вероятностное представление? Тогда понятно, откуда тяжелые хвосты.

От теории к практике
От теории к практике
  • 2018.01.26
  • www.mql5.com
Добрый вечер, уважаемые трейдеры! Решил было на какое-то время покинуть форум, и сразу как-то скучно стало:)))) А просто читать, увы - неинтересно...
Причина обращения: