Теорема Бернулли, Муавра-Лапласа; Критерий Колмогорова; Схема Бернулли; Формула Байеса; Неравенства Чебышева; Закон распределения Пуассона; Фишер, Пирсон, Стьюдент, Смирнов и др. теоремы, модели, простым языком, без формул.

 

Не могли бы Вы простыми словами пояснить их значение.

Например, по типу объяснения и примера цепи Маркова- это один из самых простых случаев последовательности случайных событий. Но, несмотря на свою простоту, она часто может быть полезной даже при описании довольно сложных явлений.

Цепью Маркова называют такую последовательность случайных событий, в которой вероятность каждого события зависит только от предыдущего, но не зависит от более ранних событий. Например, Марковской цепью является последовательные тасования колоды игральных карт. Вероятность, что после очередного тасования карты будут расположены в определенном порядке, зависит только от их расположения перед этим тасованием и не зависит от всех предыдущих. Т.е. последовательность состояний системы является Марковской цепью, если текущее состояние системы полностью определяет что с ней может произойти дальше, а как она попала в это состояние - не важно.
 

из всего этого, мне пригодилось только это- Цепью Маркова называют такую последовательность случайных событий, в которой вероятность каждого события зависит только от состояния, в котором процесс находится в текущий момент и не зависит от более ранних состояний.


 
sever31:

Не могли бы Вы простыми словами пояснить их значение.

Например, по типу объяснения и примера цепи Маркова- это один из самых простых случаев последовательности случайных событий. Но, несмотря на свою простоту, она часто может быть полезной даже при описании довольно сложных явлений.

Цепью Маркова называют такую последовательность случайных событий, в которой вероятность каждого события зависит только от предыдущего, но не зависит от более ранних событий. Например, Марковской цепью является последовательные тасования колоды игральных карт. Вероятность, что после очередного тасования карты будут расположены в определенном порядке, зависит только от их расположения перед этим тасованием и не зависит от всех предыдущих. Т.е. последовательность состояний системы является Марковской цепью, если текущее состояние системы полностью определяет что с ней может произойти дальше, а как она попала в это состояние - не важно.

Что-то пример с картами не убедил. Очевидно же, то, в какой последовательности карты окажутся после последнего тасования засисит от всех тасований, которые были до этого.

Если все дело в каком-то особом смысле термина "зависят", то тогда это уже игры с терминологией для "избранных".

 
sever31:

Не могли бы Вы простыми словами пояснить их значение.

Например, по типу объяснения и примера цепи Маркова- это один из самых простых случаев последовательности случайных событий. Но, несмотря на свою простоту, она часто может быть полезной даже при описании довольно сложных явлений.

Цепью Маркова называют такую последовательность случайных событий, в которой вероятность каждого события зависит только от предыдущего, но не зависит от более ранних событий. Например, Марковской цепью является последовательные тасования колоды игральных карт. Вероятность, что после очередного тасования карты будут расположены в определенном порядке, зависит только от их расположения перед этим тасованием и не зависит от всех предыдущих. Т.е. последовательность состояний системы является Марковской цепью, если текущее состояние системы полностью определяет что с ней может произойти дальше, а как она попала в это состояние - не важно.
Я понимаю это так. К примеру возьмем (в нашем случае) СЕЛЛ и БАЙ. Вероятность установки ордера в праильную позицию - 1/2, т.е 50%. Учтём спред, значит меньше... Следующий шаг - если выииграли, то следующая вероятность - 1/2 -(минус) 1/4, если проиграли, то 1/2+1/4 и т.д. ))))
 
MoneyJinn: Что-то пример с картами не убедил. Очевидно же, то, в какой последовательности карты окажутся после последнего тасования засисит от всех тасований, которые были до этого.
Пример с картами говорит, что последовательность карт при последнем тасовании - это вся информация, имеющаяся у нас для вычисления вероятности разных последовательностей при следующем тасовании. Добавление результатов предыдущих тасований не несет нам никакой новой информации.
 
Mathemat:


Алексей, Вы не могли бы дать понятное, краткое разъяснение указанным учениям перечисленных граждан, с примерами.
 

Могу, но сейчас зол. Написал строк 15 о теореме Бернулли, но форум заставил перелогиниться. Все потерялось. Чуток погоди, Владимир.

P.S. Даже не спрашивайте, почему форум так глючит. Не знаю. Перенос такого большого форума - дело непростое.

 

На самом деле, чтобы охватить весь спектр вопросов, заданных топикстартером, нужно писать статью. Для гуманитариев. Она будет очень непростой, т.к. тервер/матстатистика традиционно относятся к довольно сложным теориям: социологи, медработники, биологи очень часто крайне некорректно применяют тервер/матстат при интерпретации своих наблюдений. Причина заключается в том, что их базовое образование не является математическим.

Короче, давайте начнем потихоньку, по проблеме за раз.

Итак, вот теорема Бернулли в БСЭ. Фактически для гуманитария эта статья ничего не проясняет, т.к. самой формулировки теоремы там нет. Есть только оценка вероятности отклонения частоты события от его вероятности (еще не запутались?) по Чебышеву.

В простой, но, к сожалению, довольно некорректной форме теорема Бернулли звучит так:

Частота события [в схеме Бернулли] при увеличении числа испытаний стремится к его вероятности.

Чтобы пояснить формулировку (особенно то, что мелким шрифтом), придется хоть чуть-чуть вникнуть в некоторые базовые понятия теории вероятностей.

1. Вероятность в теории вероятностей - понятие неопределимое (как прямая и точка в геометрии). Но чтобы его применять содержательно, нам нужно его хоть как-то интерпретировать. В тервере принята частотная интерпретация: вероятность события примерно равна частоте его появления при неизменных условиях повторения испытаний и при очень большом их количестве. Скажем, если мы будем кидать кость и будем следить за событием "выпала пятерка", причем наша кость идеальна (все грани одинаково предпочтительны), то вероятность этого события p = 1/6, а вероятность дополнительного события ("выпало что угодно, исключая пятерку") равна q = 1 - p = 5/6. Так вот, если мы подкинем эту кость миллион раз, то частота выпадения пятерки будет примерно равна 1/6, причем возможные отклонения частоты почти всегда очень мало отличаются от 1/6.

2. Что такое схема Бернулли? Это такая последовательность однотипных и независимых испытаний, при которых возможны только 2 исхода - успех (У) и неудача (Н).

В нашем случае можно принять за У событие "выпала пятерка", а Н - "выпало что-то другое, не равное пятерке". Вероятность успеха нам известна и равна p = 1/6.

Слово "независимых" - чуть ли не самое главное в схеме Бернулли. Если я опытный крупье и играю с кем-то, то я почти наверняка смогу управлять ходом игры так, чтобы повернуть ее к своему выигрышу. Я смогу отслеживать результаты и кидать далее кости так, чтобы выигрывать. Другими словами, я способен нарушить важнейшее условие испытаний в схеме Бернулли - их независимость. И оценки вероятностей, о которых мы тут говорим, будут неверными.

3. Мы знаем, что если подбросить кость 10 раз, то пятерка может выпасть и 0, и 2, и 5, и даже 10 раз. Самый вероятный исход из упомянутых - это 2 раза из 10 (он ближе всех к вероятности 1/6). Вероятность исхода "пятерки не было ни разу" не высокаи не низка, а вот для исхода "10 из 10 - пятерка" она крайне мала. Какие законы управляют этими вероятностями? Один из приемов тервера, используемый для выяснения такого закона, - это "размножение" актуализаций: назовем единичную последовательность из 10 бросков серией и теперь начнем исполнять много серий.

Если провести много серий по 10 бросков (скажем, N = 1 000 000 серий), затем внести в таблицу результаты серий ("2 пятерки", "5 пятерок" и т.п.), после чего нарисовать гистограмму, т.е. зависимость частоты серий от результата, то мы получим кривую, очень похожую на гауссову, т.е. на колокол. На самом деле это не гауссова кривая, хотя при миллионе серий она будет очень мало отличаться от гауссовой. Эту гистограмму можно теоретически вычислить, и она будет соответствовать биномиальному распределению.

Главным отличием между случаями N=100 и N=1 000 000 будет как раз "средняя ширина" гистограмм. Во втором случае она намного меньше первого, т.е. гистограмма уже. "Средняя ширина" (среднеквадратичное отклонение) - это мера отклонения возможных частот от теоретических.

Вот теперь можно озвучить теорему Бернулли:

При увеличении количества испытаний N, проведенных по схеме Бернулли, вероятность того, что реальное отклонение частоты успеха от вероятности успеха не превысит заранее заданного сколько угодно малого эпсилон>0, стремится к 1.

Теорема Бернулли не дает оценок того, насколько велико может быть отклонение при заданном N. Эти оценки можно провести с помощью теорем Муавра-Лапласа (локальной или интегральной). Но об этом - в следующий раз. А сейчас задавайте вопросы.

P.S. Подправил ошибки в названии топика.

 

Тема СУПЕР. Я в шоке от ее появления.

Тяжеловато авторам придется. Это как грамотный перевод с китайского.

Не спешите ребята.

 

ИМХО, не поможет. Пустое все это при отсутствии соответствующей БАЗЫ. У кого база в наличии, тому жевать не надо, те или иные особенности пояснить при тех или иных условиях - вопросов нет, а так...:-)

Читайте буквари по несколько раз и ОТКРОЕТСЯ Вам!!! :-)

П.С. ... тем более "... простым языком, без формул." что значит простым языком, без формул??? Одно противоречит другому... :-) Куда уж проще и короче язык, нежели наличие формулы! Когда существует конкретная формула, тем более с описАнием входящих в нее переменных, то и языка никакого не надо...все ясно.

Причина обращения: