Bernoulli, Moab-Laplace-Theorem; Kolmogorov-Kriterium; Bernoulli-Schema; Bayes-Formel; Tschebyscheff-Ungleichungen; Poisson-Verteilungsgesetz; Theoreme von Fisher, Pearson, Student, Smirnov usw., Modelle, einfache Sprache, ohne Formeln.

 

Könnten Sie die Bedeutung in einfachen Worten erklären?

Bei der Art der Erklärung und dem Beispiel einer Markov-Kette handelt es sich beispielsweise um einen der einfachsten Fälle einer Folge von Zufallsereignissen. Doch trotz ihrer Einfachheit kann sie auch bei der Beschreibung recht komplexer Phänomene oft nützlich sein.

Kette Eine Markov-Kette ist eine Abfolge von Zufallsereignissen, bei der die Wahrscheinlichkeit eines jeden Ereignisses nur vom vorhergehenden abhängt, aber unabhängig von früheren Ereignissen ist. Eine Markov-Kette ist z. B. eine Folge von Mischvorgängen bei einem Spielkartensatz. Die Wahrscheinlichkeit, dass die Karten nach dem nächsten Mischen in einer bestimmten Reihenfolge liegen, hängt nur von ihrer Position vor dem Mischen ab und ist unabhängig von allen vorherigen Mischungen. Das heißt, die Abfolge der Zustände eines Systems ist eine Markov-Kette, wenn der aktuelle Zustand des Systems vollständig bestimmt, was als Nächstes mit ihm geschehen kann, und es irrelevant ist, wie es zu diesem Zustand gekommen ist.
 

Eine Markov-Kette ist eine Abfolge von Zufallsereignissen, bei der die Wahrscheinlichkeit eines jeden Ereignisses nur von dem Zustand abhängt, in dem sich der Prozess gerade befindet, und unabhängig von früheren Zuständen ist.


 
sever31:

Könnten Sie deren Bedeutung in einfachen Worten erklären?

Bei der Art der Erklärung und dem Beispiel einer Markov-Kette handelt es sich beispielsweise um einen der einfachsten Fälle einer Folge von Zufallsereignissen. Doch trotz ihrer Einfachheit kann sie auch bei der Beschreibung recht komplexer Phänomene oft nützlich sein.

Kette Eine Markov-Kette ist eine Abfolge von Zufallsereignissen, bei der die Wahrscheinlichkeit eines jeden Ereignisses nur vom vorhergehenden abhängt, aber unabhängig von früheren Ereignissen ist. Eine Markov-Kette ist z. B. eine Folge von Mischvorgängen bei einem Spielkartensatz. Die Wahrscheinlichkeit, dass die Karten nach dem nächsten Mischen in einer bestimmten Reihenfolge liegen, hängt nur von der Position der Karten vor dem Mischen ab und nicht von den vorangegangenen Mischungen. Das heißt, die Abfolge der Zustände eines Systems ist eine Markov-Kette, wenn der aktuelle Zustand des Systems vollständig bestimmt, was als Nächstes mit ihm geschehen kann, und es irrelevant ist, wie es zu diesem Zustand gekommen ist.

Irgendetwas an dem Kartenbeispiel ist nicht überzeugend. Die Reihenfolge, in der die Karten nach dem letzten Mischen auftauchen, hängt natürlich von allen vorherigen Mischungen ab.

Wenn es um eine besondere Bedeutung des Begriffs "abhängen" geht, dann ist das ein Spiel mit der Terminologie für die "Auserwählten".

 
sever31:

Könnten Sie die Bedeutung in einfachen Worten erklären?

Bei der Art der Erklärung und dem Beispiel einer Markov-Kette handelt es sich beispielsweise um einen der einfachsten Fälle einer Folge von Zufallsereignissen. Doch trotz ihrer Einfachheit kann sie auch bei der Beschreibung recht komplexer Phänomene oft nützlich sein.

Kette Eine Markov-Kette ist eine Abfolge von Zufallsereignissen, bei der die Wahrscheinlichkeit eines jeden Ereignisses nur vom vorhergehenden abhängt, aber unabhängig von früheren Ereignissen ist. Eine Markov-Kette ist z. B. eine Folge von Mischvorgängen bei einem Spielkartensatz. Die Wahrscheinlichkeit, dass die Karten nach dem nächsten Mischen in einer bestimmten Reihenfolge liegen, hängt nur von der Reihenfolge vor dem Mischen ab und ist unabhängig von allen vorherigen Mischungen. Das heißt, die Abfolge der Zustände eines Systems ist eine Markov-Kette, wenn der aktuelle Zustand des Systems vollständig bestimmt, was als Nächstes mit ihm geschehen kann, und es irrelevant ist, wie es zu diesem Zustand gekommen ist.
Ich verstehe das so. Nehmen wir zum Beispiel (in unserem Fall) einen SELL und einen BAY. Die Wahrscheinlichkeit, einen Auftrag an die richtige Stelle zu setzen, beträgt 1/2, also 50%. Wir berücksichtigen die Spanne, so dass sie geringer ist. Nächster Schritt - wenn wir gewinnen, ist die nächste Wahrscheinlichkeit 1/2 - (minus) 1/4, wenn wir verlieren, 1/2+1/4 und so weiter. ))))
 
MoneyJinn: Das Beispiel mit der Karte überzeugt mich nicht. Die Reihenfolge, in der die Karten nach dem letzten Mischen auftauchen, hängt natürlich von allen vorherigen Mischungen ab.
Das Kartenbeispiel besagt, dass die Reihenfolge der Karten bei der letzten Mischung die einzige Information ist, die wir haben, um die Wahrscheinlichkeit verschiedener Reihenfolgen bei der nächsten Mischung zu berechnen. Das Hinzufügen der Ergebnisse früherer Mischungen liefert keine neuen Informationen.
 
Mathemat:


Alexej, könnten Sie die erwähnten Lehren der genannten Bürger mit Beispielen klar und prägnant erläutern?
 

Ich könnte, aber ich bin jetzt wütend. Ich habe 15 Zeilen über das Theorem von Bernoulli geschrieben, aber das Forum zwang mich, mich neu einzuloggen. Es ist alles verloren gegangen. Warten Sie einen Moment, Vladimir.

P.S. Fragen Sie nicht einmal, warum das Forum so fehlerhaft ist. Ich weiß es nicht. Es ist nicht einfach, ein so großes Forum umzuziehen.

 

Um alle Fragen des Themenstarters zu behandeln, müssen wir einen Artikel schreiben. Für Gelehrte. Das wird sehr schwierig sein, denn Terver/Matstatistiken beziehen sich traditionell auf ziemlich komplizierte Theorien: Soziologen, Mediziner, Biologen wenden Terver/Matstat bei der Interpretation ihrer Beobachtungen sehr oft falsch an, weil ihre Grundausbildung nicht mathematisch ist.

Kurz gesagt, lassen Sie uns langsam beginnen, ein Problem nach dem anderen.

Hier ist also der Satz von Bernoulli in der BSE. In der Tat klärt dieser Artikel für den Humanisten nichts, denn die Formulierung des Theorems selbst ist nicht vorhanden. Es gibt nur eine Schätzung der Wahrscheinlichkeit der Abweichung der Häufigkeit eines Ereignisses von seiner Wahrscheinlichkeit (noch nicht verwirrt?) durch Tschebyscheff.

In einfacher, aber leider nicht ganz korrekter Form lautet das Bernoulli-Theorem wie folgt:

Die Häufigkeit eines Ereignisses [im Bernoulli-Schema] tendiert zu seiner Wahrscheinlichkeit, wenn die Anzahl der Versuche steigt.

Um die Formulierung (insbesondere das Kleingedruckte) zu erklären, müssen Sie sich zumindest ein wenig mit einigen grundlegenden Konzepten der Wahrscheinlichkeitstheorie befassen.

1. Die Wahrscheinlichkeit in der Wahrscheinlichkeitstheorie ist ein undefinierbarer Begriff (wie gerade Linie und Punkt in der Geometrie). Aber um sie sinnvoll anwenden zu können, müssen wir sie irgendwie interpretieren. Umgekehrt wird die Häufigkeitsinterpretation akzeptiert: Die Wahrscheinlichkeit eines Ereignisses ist ungefähr gleich der Häufigkeit seines Auftretens unter konstanten Bedingungen der Testwiederholung und bei einer sehr großen Anzahl von Tests. Angenommen, wir würfeln und verfolgen das Ereignis "Fünf ist gefallen" und unser Würfel ist perfekt (alle Seiten sind gleichwertig), dann ist die Wahrscheinlichkeit dieses Ereignisses p = 1/6 und die Wahrscheinlichkeit des zusätzlichen Ereignisses ("irgendetwas außer fünf ist gefallen") ist q = 1 - p = 5/6. Wenn wir also diesen Würfel eine Million Mal werfen, wird die Häufigkeit von fünf etwa 1/6 betragen, und die möglichen Häufigkeitsabweichungen sind fast immer nur sehr geringfügig von 1/6 verschieden.

2. Was ist ein Bernoulli-Schema? Es handelt sich um eine Abfolge von unabhängigen Einzelversuchen, bei denen nur 2 Ergebnisse möglich sind - Erfolg (Y) und Misserfolg (F).

In unserem Fall können wir Y als das Ereignis "ein A ist herausgefallen" und H als "etwas anderes ist herausgefallen, das nicht einem A entspricht" betrachten. Wir kennen die Erfolgswahrscheinlichkeit und sie beträgt p = 1/6.

Das Wort "unabhängig" ist fast das Wichtigste in Bernoullis Schema. Wenn ich ein erfahrener Croupier bin und mit jemandem spiele, kann ich das Spiel mit ziemlicher Sicherheit so steuern, dass es zu meinem Vorteil wird. Ich werde in der Lage sein, die Ergebnisse zu verfolgen und weiter zu würfeln, damit ich gewinne. Mit anderen Worten, ich bin in der Lage, die wichtigste Bedingung der Versuche im Bernoulli-Schema zu brechen - ihre Unabhängigkeit. Und die Wahrscheinlichkeitsschätzungen, von denen wir hier sprechen, werden falsch sein.

3. wir wissen, dass, wenn wir den Würfel 10 Mal werfen, die Fünf 0, 2, 5 und sogar 10 Mal fallen kann. Der wahrscheinlichste Ausgang der genannten Fälle ist 2 von 10 (er kommt einer Wahrscheinlichkeit von 1/6 am nächsten). Die Wahrscheinlichkeit des Ergebnisses "fünf ist nie passiert" ist nicht hoch und nicht niedrig, aber für das Ergebnis "10 von 10 - fünf" ist sie extrem niedrig. Welche Gesetze bestimmen diese Wahrscheinlichkeiten? Eine der häufigsten Techniken, um ein solches Gesetz herauszufinden, ist die "Multiplikation" von Aktualisierungen: Nennen wir eine einzelne Folge von 10 Würfen eine Serie und beginnen wir nun, viele Serien durchzuführen.

Wenn man viele Serien von 10 Würfen durchführt (sagen wir, N = 1.000.000 Serien), dann die Ergebnisse der Serien in eine Tabelle einträgt ("2 Fünfer", "5 Fünfer" usw.) und dann ein Histogramm zeichnet, d.h. die Abhängigkeit der Serienhäufigkeit vom Ergebnis, erhält man eine Kurve, die der Gaußschen Kurve sehr ähnlich ist, d.h. eine Glocke. Es handelt sich nämlich nicht um eine Gaußsche Kurve, obwohl sie sich bei einer Million Serien nur wenig von der Gaußschen Kurve unterscheidet. Dieses Histogramm kann theoretisch berechnet werden und entspricht einer Binomialverteilung.

Der Hauptunterschied zwischen den Fällen N=100 und N=1.000.000 ist lediglich die "durchschnittliche Breite" der Histogramme. Im zweiten Fall ist er viel kleiner als im ersten, d. h. das Histogramm ist schmaler. Die "mittlere Breite" (Standardabweichung) ist ein Maß für die Abweichung der möglichen Frequenzen von den theoretischen Frequenzen.

Jetzt können wir das Theorem von Bernoulli in die Tat umsetzen:

Mit zunehmender Anzahl von Versuchen N des Bernoulli-Schemas tendiert die Wahrscheinlichkeit, dass die tatsächliche Abweichung der Erfolgsquote von der Erfolgswahrscheinlichkeit einen vorgegebenen, wenn auch kleinen Wert epsilon>0 nicht überschreitet, gegen 1.

Das Theorem von Bernoulli gibt keine Schätzungen darüber ab, wie groß die Abweichung bei einem gegebenen N sein kann. Diese Schätzungen können mit Hilfe des Mois-Laplace-Theorems (lokal oder integral) vorgenommen werden. Aber dazu das nächste Mal. Stellen Sie erst einmal Fragen.

P.S. Ich habe die Fehler im Titel des Themas korrigiert.

 

Das Thema ist SUPER. Ich bin schockiert über sein Aussehen.

Für die Autoren wird es schwer werden. Es ist wie eine kompetente Übersetzung aus dem Chinesischen.

Lasst euch Zeit, Leute.

 

IMHO wird das nicht helfen. All dies ist leer, wenn es keine geeignete Grundlage gibt. Wer eine Basis hat, der braucht nicht zu kauen, um diese oder andere Eigenschaften zu erklären - keine Fragen, aber sonst ... :-).

Lies die Fibel mehrmals durch und DU WIRST RELEVANT!!! :-)

P.S. ... insbesondere "... in einfacher Sprache, ohne Formeln" Was meinen Sie mit einfacher Sprache, ohne Formeln? Das eine widerspricht dem anderen... :-) Eine viel einfachere und kürzere Sprache als eine Formel! Wenn es eine bestimmte Formel gibt, vor allem mit einer Beschreibung der Variablen, aus denen sie sich zusammensetzt, ist keine Sprache nötig... alles ist klar.

Grund der Beschwerde: