От теории к практике - страница 366

 
bas:

Хвосты - это не память. Память - это зависимость следующего приращения от предыдущего.

Распределения не несут ни малейшей информации о наличии/отсутствии памяти - для этого нужно расссматривать условные распределения или автокорреляцию, что по сути одно и то же.

Простейшая иллюстрация: любой ряд приращений я могу перемешать(поменять произвольно приращения местами). Память при этом может как появиться, так и исчезнуть. А распределение останется неизменным.

Граждане страждущие, ну возьмите уже в руки гугл, и изучите наконец матчасть. А то смешно читать вас.

А где у меня написано, что хвосты это память, я уже несколько раз прочитала, может я правда что-то такое написала, нет, не написала, а Вы где это увидели? 

Советую перечитать пост Vladimir  https://www.mql5.com/ru/forum/221552/page362#comment_7389227.

 

В теории вероятностей и статистике экспоненциальное распределение ... является распределение вероятностей , которое описывает время между событиями в пуассоновском точечном процессе ... Это частный случай гамма-распределения . Это непрерывный аналог геометрического распределения, и имеет ключевое свойство быть без памяти.

Источник: https://en.wikipedia.org/wiki/Exponential_distribution

распределение Лапласа является непрерывное распределение вероятностей ... Его также иногда называют двойным экспоненциальным распределением ... Разность между двумя независимыми одинаково распределенными экспоненциальными случайными величинами определяется распределением Лапласа...Функция плотности вероятности распределения Лапласа также напоминает нормальное распределение ... Следовательно, распределение Лапласа имеет более плотные хвосты, чем нормальное распределение. 

Источник: https://en.wikipedia.org/wiki/Laplace_distribution

 
Novaja:

В теории вероятностей и статистике экспоненциальное распределение ... является распределение вероятностей , которое описывает время между событиями в пуассоновском точечном процессе ... Это частный случай гамма-распределения . Это непрерывный аналог геометрического распределения, и имеет ключевое свойство быть без памяти.

Источник: https://en.wikipedia.org/wiki/Exponential_distribution

распределение Лапласа является непрерывное распределение вероятностей ... Его также иногда называют двойным экспоненциальным распределением ... Разность между двумя независимыми одинаково распределенными экспоненциальными случайными величинами определяется распределением Лапласа...Функция плотности вероятности распределения Лапласа также напоминает нормальное распределение ... Следовательно, распределение Лапласа имеет более плотные хвосты, чем нормальное распределение. 

Источник: https://en.wikipedia.org/wiki/Laplace_distribution

Ну, надо-же. Кто-бы мог подумать.

 
Yuriy Asaulenko:

Ну, надо-же. Кто-бы мог подумать.

Я Вас чем-то обидела или задела? Просто уточнила, на пост bas где я взяла эту ахинею. 

 
Novaja:

А где у меня написано, что хвосты это память, я уже несколько раз прочитала, может я правда что-то такое написала, нет, не написала, а Вы где это увидели? 

Ну если нигде не написано, то я рад что ошибся)

А по вашей первой ссылке реально ахинея, там путают распределение и процесс. В русском варианте это даже писать не стали. А вообще, лучше конечно к проверенным учебникам обращаться, в вики ж кто угодно может написать что угодно)

 

Да, господа - ветка превратилась в полнейший позор. Взята в полон дурачками.

В который раз прошу модераторов проверить у всех документы об образовании и трудовые книжки.

Пока этого не произойдет - отказываюсь здесь общаться. Кому надо - пишите в личку.

 
Пишите пожалуйста здесь! Только эту тему и читаю (Хоть не понимаю ничего). 
 
Alexander_K:

Да, господа - ветка превратилась в полнейший позор. Взята в полон дурачками.

В который раз прошу модераторов проверить у всех документы об образовании и трудовые книжки.

Пока этого не произойдет - отказываюсь здесь общаться. Кому надо - пишите в личку.

третье ушествие Alexander_K :-)

PS/ пора было уже привыкнуть что не всё в мире идеально..с другой стороны - проверьте может критика и выступления подчиняются Эрланговсому закону ? тогда вы сможете её гениально предугадать..

 
Alexander_K:

Да, господа - ветка превратилась в полнейший позор. Взята в полон дурачками.

В который раз прошу модераторов проверить у всех документы об образовании и трудовые книжки.

Пока этого не произойдет - отказываюсь здесь общаться. Кому надо - пишите в личку.

Пора начинать обратный отсчет.

Например, до опубликования статьи осталось 10 дней

 
Maxim Kuznetsov:

третье ушествие Alexander_K :-)

PS/ пора было уже привыкнуть что не всё в мире идеально..с другой стороны - проверьте может критика и выступления подчиняются Эрланговсому закону ? тогда вы сможете её гениально предугадать..

Вы не поверите - за ПОЛГОДА я здесь услышал только 1 умный совет (он знает о ком и о чем я говорю) и 1 наводящую подсказку. Все остальное - ни о чем. Зачем это все???

Причина обращения: