Programmier-Tutorial - Seite 15

 

Konfidenzintervalle und der zentrale Grenzwertsatz


Konfidenzintervalle und der zentrale Grenzwertsatz

Hallo zusammen, heute werden wir den Zentralen Grenzwertsatz anwenden und Konfidenzintervalle für den Mittelwert der Grundgesamtheit konstruieren. Die Formel für das Konfidenzintervall für den Grundgesamtheitsmittelwert mu basiert auf der Annahme, dass die Stichprobenpopulation einer völlig normalen Verteilung mit Mittelwert mu und Varianz-Sigma-Quadrat folgt. In vielen Fällen ist diese Annahme jedoch nicht sinnvoll. Wenn beispielsweise die durchschnittliche Länge von Anrufen einer Telefonbank ermittelt wird, ist die Verteilung der Anruflängen wahrscheinlich nicht normal. Es ist wahrscheinlicher, dass es sich um ein Histogramm mit einer schiefen Verteilung handelt, als um eine Glockenkurve.

Dennoch können wir mithilfe des Zentralen Grenzwertsatzes immer noch ein Konfidenzintervall für den Populationsmittelwert mu erstellen. Dieser Satz besagt, dass die Stichprobenverteilung des Stichprobenmittelwerts unabhängig von der Form der Grundgesamtheitsverteilung ungefähr normalverteilt ist, solange die Stichprobengröße n ausreichend groß ist (normalerweise n ≥ 30). Um dies zu veranschaulichen, stellen Sie sich vor, dass Sie wiederholt Stichproben der Größe n nehmen, jedes Mal den Stichprobenmittelwert (x-Balken) berechnen und ein Histogramm dieser Stichprobenmittelwerte erstellen. Gemäß dem zentralen Grenzwertsatz weist dieses Histogramm eine glockenförmige Kurve auf, die um den Mittelwert der Grundgesamtheit zentriert ist, wobei die Streuung durch die Varianz der Grundgesamtheit dividiert durch die Stichprobengröße gemessen wird.

Es ist wichtig zu beachten, dass sich diese Näherung mit zunehmender Stichprobengröße n verbessert. Lassen Sie uns einige Beispiele durchgehen, um dieses Konzept zu veranschaulichen. Angenommen, die Standardabweichung der Anrufe bei der Telefonbank beträgt Sigma = 1 Minute und wir erhalten Stichproben der Größe 81. Die Verteilung der Stichprobenmittelwerte (x-Balken) ist ungefähr normal, mit einem Mittelwert, der dem Grundgesamtheitsmittelwert und einem Standard entspricht Abweichung von Sigma dividiert durch die Quadratwurzel von n (in diesem Fall 1 / √81 ≈ 0,11).

Mit diesen Informationen können wir Konfidenzintervalle berechnen, ähnlich wie bei bekanntermaßen normaler Bevölkerungsverteilung. Wir müssen jedoch bedenken, dass diese Konfidenzintervalle nur Näherungswerte sind. Wenn wir beispielsweise eine Stichprobe der Größe 81 haben und einen Stichprobenmittelwert von 1,1 Minuten ermitteln, können wir mithilfe der Formel ein 95 %-Konfidenzintervall für den Grundgesamtheitsmittelwert erstellen:

mu ≈ x bar ± z star * sigma / √n

Indem wir die Werte einsetzen (x bar = 1,1, sigma = 1,0, n = 81) und den kritischen z-Wert (z star) verwenden, der einer 95-prozentigen Konfidenz (1,960) entspricht, stellen wir fest, dass der Grundgesamtheitsmittelwert (mu) ungefähr ist 1,1 ± 0,22 Minuten mit 95 % Sicherheit.

Betrachten wir ein anderes Beispiel. Ein großer Konzern beschäftigt landesweit Tausende von Angestellten in Einzelhandelsgeschäften. In einer Stichprobe der Größe 35 betrug die durchschnittliche Anzahl der pro Woche geleisteten Arbeitsstunden 23. Wir möchten ein 90 %-Konfidenzintervall für die durchschnittliche Anzahl der von allen in diesem Unternehmen beschäftigten Angestellten geleisteten Arbeitsstunden erstellen und dabei eine Standardabweichung (Sigma) von annehmen 5 Stunden. Wir können die gleiche Formel verwenden:

mu ≈ x bar ± z star * sigma / √n

Indem wir die Werte einsetzen (x bar = 23, sigma = 5, n = 35) und den kritischen z-Wert (z star) verwenden, der einer 90-prozentigen Konfidenz (1,645) entspricht, stellen wir fest, dass der Grundgesamtheitsmittelwert (mu) ungefähr ist 23 ± 1,4 Stunden mit 90 % Sicherheit.

Zusammenfassend lässt sich sagen, dass wir, selbst wenn die Bevölkerungsverteilung nicht genau normal ist, dennoch den zentralen Grenzwertsatz verwenden können, um ungefähre Konfidenzintervalle für den Bevölkerungsmittelwert zu konstruieren. Diese Intervalle liefern wertvolle Erkenntnisse und helfen uns, statistische Schlussfolgerungen zu ziehen und das mit unseren Schätzungen verbundene Vertrauensniveau zu verstehen.

 

Konfidenzintervalle und Stichprobengröße


Konfidenzintervalle und Stichprobengröße

Hallo zusammen, heute werden wir Konfidenzintervalle und Stichprobengröße besprechen. Wenn wir eine einfache Zufallsstichprobe der Größe „n“ mit einem Stichprobenmittelwert „x bar“ haben, können wir mithilfe der Formel ein Konfidenzintervall der Stufe „c“ für den Grundgesamtheitsmittelwert „mu“ erstellen:

mu = x bar ± z star * sigma / √n

Hier stellt „z star“ den kritischen z-Score dar, der dem Konfidenzniveau „c“ entspricht, und „sigma“ ist die Populationsstandardabweichung. Der Begriff „z star * sigma / √n“ wird als Fehlermarge bezeichnet. Dabei handelt es sich um eine Schätzung, wie stark unser Stichprobenmittelwert vom wahren Grundgesamtheitsmittelwert „mu“ abweichen kann.

Die Idee hinter der Konstruktion eines Konfidenzintervalls besteht darin, dass „mu“ grob gesagt in einem Prozentsatz „c“ der Zeit innerhalb der Fehlerspanne von „x bar“ liegt.

Betrachten wir nun eine praktische Frage: Wie groß ist die Stichprobe, wenn die Fehlerspanne nicht größer als ein bestimmter Schwellenwert „e“ sein soll? In diesem Fall kennen wir „e“, die gewünschte Fehlerspanne, „c“, das Konfidenzniveau, und „Sigma“, die Standardabweichung der Grundgesamtheit (vorausgesetzt, sie ist bekannt). Wir müssen die erforderliche Stichprobengröße „n“ ermitteln, indem wir die Gleichung algebraisch lösen.

Um die Stichprobengröße zu berechnen, multiplizieren wir beide Seiten der Gleichung mit √n, dividieren beide Seiten durch „e“ und quadrieren dann beide Seiten, was uns ergibt:

n = (z Stern * Sigma / e)^2

Wenn der resultierende Wert von „n“ keine ganze Zahl ist, was häufig der Fall ist, da „z star“ dazu neigt, irrational zu sein, runden wir ihn auf die nächste ganze Zahl auf. Es ist wichtig zu beachten, dass eine Erhöhung der Stichprobengröße die Fehlerspanne verringert und dass das Abrunden von „n“ die Fehlerspanne möglicherweise über den gewünschten Schwellenwert „e“ hinaus erhöhen könnte.

Der kritische Z-Score „z Star“ wird durch das angegebene Konfidenzniveau „c“ bestimmt. Dieser Wert kann mithilfe von Technologie oder anhand einer Tabelle berechnet werden. Obwohl die Verwendung von Tabellen für statistische Berechnungen normalerweise nicht empfohlen wird, ist die Tabelle bei häufig verwendeten Konfidenzniveaus, z. B. einem Konfidenzniveau von 95 % (entsprechend einem az-Wert von 1,960), klein und sinnvoll zu verwenden.

Betrachten wir ein Beispiel: Angenommen, wir möchten das Gewicht eines Statistikers auf ein halbes Pfund genau und mit einer Sicherheit von 95 % bestimmen, indem wir eine Waage mit einer Standardabweichung von 1,2 Pfund verwenden. Wie oft müssen wir den Statistiker wiegen?

Indem wir die angegebenen Werte in die Stichprobengrößenformel einsetzen, stellen wir fest, dass die minimal erforderliche Stichprobengröße 23 Wägungen beträgt, die wir auf 23 aufrunden. Daher müssen wir den Statistiker 23 Mal wiegen, um sein Gewicht auf das nächste halbe Pfund genau zu ermitteln 95 % Vertrauen.

Wenn wir das Konfidenzniveau erhöhen oder die Fehlerspanne verringern, erhöht sich erwartungsgemäß auch die erforderliche Stichprobengröße. Wenn wir umgekehrt die Fehlerspanne erhöhen, verringert sich die erforderliche Stichprobengröße.

Nehmen wir in einem anderen Beispiel an, dass ein Hersteller das mittlere Gewicht einer bestimmten Art von Eisennägeln mit einer Genauigkeit von 99 % und einer Genauigkeit von 0,2 Gramm bestimmen möchte und die Standardabweichung der Grundgesamtheit 0,5 Gramm beträgt. Durch Anwendung der Stichprobengrößenformel stellen wir fest, dass eine Mindeststichprobengröße von 42 Nägeln erforderlich ist, um ein Konfidenzniveau von 99 % mit einer Fehlermarge von nicht weniger als 0,2 Gramm zu erreichen.

Das Verständnis von Konfidenzintervallen und ihrer Beziehung zur Stichprobengröße ermöglicht es uns, Studien und Experimente effektiv zu planen und sicherzustellen, dass unsere Schätzungen innerhalb des gewünschten Konfidenz- und Präzisionsniveaus genau und zuverlässig sind.

 

Konfidenzintervalle unter Verwendung der t-Verteilung


Konfidenzintervalle unter Verwendung der t-Verteilung

Hallo zusammen, in der heutigen Sitzung werden wir Konfidenzintervalle mithilfe der t-Verteilung erstellen. In unseren vorherigen Diskussionen haben wir die Formel mu gleich x bar plus oder minus z-Stern-Sigma über der Quadratwurzel von n verwendet, um den Populationsmittelwert mu mit dem Stichprobenmittelwert x bar anzunähern und die Fehlerspanne zu berechnen. Diese Formel geht jedoch davon aus, dass wir das Sigma der Populationsstandardabweichung kennen, was häufig nicht der Fall ist.

Um diese Einschränkung zu überwinden, können wir das Sigma der Populationsstandardabweichung mithilfe der Stichprobenstandardabweichung s schätzen. Die Formel für das Konfidenzintervall mit der t-Verteilung ähnelt der vorherigen, mit einer leichten Modifikation. Anstelle des kritischen Z-Scores verwenden wir den kritischen T-Wert basierend auf dem gewählten Konfidenzniveau. Die t-Verteilung beschreibt die Variabilität der Variablen t, die durch t gleich x bar minus mu über s dividiert durch die Quadratwurzel von n gegeben ist. Die t-Verteilung ist symmetrisch und glockenförmig, ähnlich der Standardnormalverteilung, weist jedoch bei kleineren Stichprobengrößen eine etwas größere Streuung auf.

Um ein Konfidenzintervall zu erstellen, müssen wir die Grenzwerte für t finden, die als T-Stern bezeichnet werden, sodass die Wahrscheinlichkeit, dass t zwischen dem negativen T-Stern und dem positiven T-Stern liegt, dem gewählten Konfidenzniveau entspricht. Sobald wir den T-Star bestimmt haben, können wir das Konfidenzintervall mithilfe der Formel „mu gleich x bar plus oder minus T-Star s über der Quadratwurzel von n“ berechnen.

Lassen Sie uns ein Beispiel durchgehen. Eine Forschergruppe will Natriumkonzentrationen in einem kanadischen See untersuchen. Sie sammelten 23 Proben und fanden einen Mittelwert von 24,7 Teilen pro Million und eine Probenstandardabweichung von 4,2 Teilen pro Million. Wir wollen ein 95 %-Konfidenzintervall für die mittlere Natriumkonzentration im See erstellen. Da wir die Standardabweichung der Grundgesamtheit nicht kennen, verwenden wir die t-Verteilung.

Wenn wir die Werte einsetzen, ist x bar gleich 24,7, s gleich 4,2 und n gleich 23. Um den kritischen t-Wert zu finden, müssen wir den t-star-Wert bestimmen, der dem Belassen von 2,5 % der Fläche auf jeder Seite entspricht der t-Verteilung. Mithilfe einer inversen t-Berechnung ermitteln wir, dass t-star etwa 2,074 beträgt.

Jetzt können wir das Konfidenzintervall konstruieren: 24,7 plus oder minus 2,074 mal 4,2 dividiert durch die Quadratwurzel von 23. Wenn wir diesen Ausdruck vereinfachen, erhalten wir ein Konfidenzintervall von 24,7 plus oder minus 1,8.

Es ist erwähnenswert, dass der kritische t-Wert, 2,074, etwas größer ist als der kritische z-Score für das gleiche Konfidenzniveau. Dies liegt daran, dass wir die Standardabweichung der Grundgesamtheit schätzen, was zu einer zusätzlichen Unsicherheit führt, was zu einem etwas größeren Konfidenzintervall führt.

Zusammenfassend lässt sich sagen, dass wir beim Erstellen von Konfidenzintervallen ohne Kenntnis der Standardabweichung der Grundgesamtheit die t-Verteilung verwenden und die Standardabweichung der Grundgesamtheit anhand der Standardabweichung der Stichprobe schätzen. Der Rest des Prozesses ähnelt der Konstruktion von Konfidenzintervallen mit bekannter Standardabweichung, jedoch mit kritischen t-Werten anstelle kritischer Z-Werte.

 

Verwenden von R zur Berechnung der t-Verteilung


Verwenden von R zur Berechnung der t-Verteilung

Hallo zusammen, heute führen wir einige Berechnungen mit der t-Verteilung in R durch. Wir werden drei Probleme Schritt für Schritt durcharbeiten. Lasst uns gleich eintauchen!

Lassen Sie uns zunächst darüber sprechen, wie wir Wahrscheinlichkeiten in der t-Verteilung mithilfe der kumulativen Verteilungsfunktion (CDF) berechnen. Durch Eingabe eines bestimmten t-Werts, beispielsweise 0,44, gibt uns der CDF die Wahrscheinlichkeit an, zufällig einen t-Score zu erhalten, der kleiner oder gleich diesem Wert ist. Visuell entspricht dies der grafischen Darstellung einer Glockenkurve, da T-Verteilungen glockenförmige Muster aufweisen.

Um die Wahrscheinlichkeit zu ermitteln, beschriften wir den interessierenden T-Score (0,44) und schattieren den Bereich links von diesem Score. Dieser schattierte Bereich stellt die Wahrscheinlichkeit dar, nach der wir suchen. Ich empfehle dringend, R für T-Verteilungsberechnungen zu verwenden, anstatt sich auf Tabellen zu verlassen, da diese schwierig und weniger genau sein können. In R lautet der dem CDF einer t-Verteilung entsprechende Befehl pt, der zwei Argumente erfordert: den t-Wert (0,44) und die Anzahl der Freiheitsgrade (26).

Wechseln wir zu R und führen den pt-Befehl aus: pt(0.44, 26). Das Ergebnis liegt bei etwa 0,668, was darauf hinweist, dass die Wahrscheinlichkeit, in dieser T-Verteilung zufällig einen T-Score kleiner oder gleich 0,44 zu erhalten, etwa 66,8 % beträgt.

Kommen wir nun zu Problem zwei. Wir wollen die Wahrscheinlichkeit ermitteln, dass t in einer t-Verteilung mit 19 Freiheitsgraden zwischen -0,8 und 0,5 liegt. Um dieses Problem zu lösen, berechnen wir die Fläche links von t = 0,5 und subtrahieren die Fläche links von t = -0,8. Wir können dies erreichen, indem wir zwei pt-Befehle mit einer Subtraktion dazwischen verwenden: pt(0,5, 19) - pt(-0,8, 19). Das Ergebnis beträgt ungefähr 0,472, was darauf hinweist, dass die Wahrscheinlichkeit, zufällig einen t-Score zwischen -0,8 und 0,5 in einer t-Verteilung mit 19 Freiheitsgraden zu erhalten, ungefähr 47,2 % beträgt.

Um mit Problem drei fortzufahren, müssen wir einen Wert (Tau) in der t-Verteilung mit 50 Freiheitsgraden finden, so dass die Wahrscheinlichkeit, einen T-Score zu erhalten, der kleiner oder gleich Tau ist, 0,3 beträgt. Dabei handelt es sich um eine inverse CDF-Berechnung. Wir können die qt-Funktion in R verwenden und die Wahrscheinlichkeit (0,3) und die Anzahl der Freiheitsgrade (50) angeben. Führen wir den qt-Befehl aus: qt(0.3, 50). Das Ergebnis beträgt ungefähr -0,5277. Es ist wichtig zu beachten, dass es sinnvoll ist, eine negative Zahl zu erhalten, da die Mitte der Glockenkurve in jeder t-Verteilung bei t = 0 liegt.

Denken Sie daran, dass diese Berechnungen manuell durchgeführt werden können, R bietet jedoch praktische Funktionen (pt und qt), um den Prozess zu vereinfachen. Die Nutzung dieser Funktionen spart Zeit und gewährleistet Genauigkeit.

 

Konfidenzintervalle in R


Konfidenzintervalle in R

Hallo zusammen, heute werden wir mit Konfidenzintervallen in R arbeiten, was besonders nützlich ist, wenn wir einen tatsächlichen Datensatz haben und nicht nur zusammenfassende Statistiken. In diesem Beispiel betrachten wir den CO2-Datensatz und konzentrieren uns auf die Variable „Aufnahme“.

Zuvor haben wir Konfidenzintervalle anhand des Stichprobenmittelwerts (x-bar) und der Stichprobenstandardabweichung (s) berechnet, aber jetzt lernen wir eine Verknüpfung mit dem Befehl „t.test“ kennen. Durch die Bereitstellung der interessierenden Variablen, in diesem Fall „Aufnahme“, aus dem CO2-Datensatz, wird der Befehl standardmäßig auf ein Konfidenzniveau von 95 % eingestellt.

Der Befehl t-test stellt mehrere Informationen bereit, von denen einige noch relevanter werden, wenn wir später das Testen von Hypothesen besprechen. Die wichtigsten Details, die es vorerst zu beachten gilt, sind das 95 %-Konfidenzintervall und die Punktschätzung. Das Konfidenzintervall stellt den Wertebereich dar, innerhalb dessen wir den Bevölkerungsmittelwert schätzen können. Die Punktschätzung ist der Stichprobenmittelwert, der als Einzelwertschätzung für den Grundgesamtheitsmittelwert dient.

Die t-Test-Ausgabe umfasst auch die Freiheitsgrade, die um eins kleiner sind als die Stichprobengröße. Weitere Informationen wie p-Werte und Alternativhypothesen werden in zukünftigen Videos zum Signifikanztest besprochen.

Obwohl die T-Test-Ausgabe die Fehlermarge nicht direkt angibt, können wir sie manuell berechnen. Die Fehlermarge für ein t-Konfidenzintervall folgt der Formel: T* * (s / sqrt(n)), wobei s die Stichprobenstandardabweichung, n die Stichprobengröße und T* der kritische t-Wert für ist das gewünschte Konfidenzniveau.

Um T* zu finden, verwenden wir die Funktion „qt“ und geben den Bereich links von T* an. Für ein 95 %-Konfidenzintervall benötigen wir 97,5 % der Fläche links von T*. Daher berechnen wir T* als „qt(0,975, 83)“. Die Multiplikation von T* mit der Standardabweichung der Stichprobe und deren Division durch die Quadratwurzel der Stichprobengröße ergibt die Fehlerspanne.

Alternativ können wir die Funktion „t.test“ in R verwenden, um das Konfidenzintervall automatisch zu berechnen. Um das Konfidenzniveau zu ändern, fügen wir das Argument „conf.level=" hinzu und geben den gewünschten Prozentsatz an. Wenn Sie beispielsweise „conf.level = 90“ festlegen, erhalten Sie ein Konfidenzintervall von 90 %.

Wenn wir das Konfidenzniveau verringern, wird das resultierende Konfidenzintervall enger. Die Obergrenze des Intervalls nimmt ab, was auf ein höheres Maß an Präzision in unserer Schätzung hinweist.

Zusammenfassend stellen Konfidenzintervalle einen Wertebereich bereit, innerhalb dessen wir den Bevölkerungsmittelwert schätzen. R bietet praktische Funktionen wie „t.test“ und „qt“, um die Berechnungen zu vereinfachen und genaue Ergebnisse zu erhalten.

 

Konfidenzintervalle für Proportionen


Konfidenzintervalle für Proportionen

Hallo zusammen, heute werden wir Konfidenzintervalle für Proportionen erstellen. Oftmals stoßen wir auf zufällige Prozesse mit zwei möglichen Ergebnissen, etwa „Kopf oder Zahl“, „Ja“ oder „Nein“ oder „Wahr“ und „Falsch“. Wir wollen anhand von Beispieldaten Rückschlüsse auf die Wahrscheinlichkeiten dieser Ergebnisse ziehen.

Um diese Ergebnisse zu analysieren, weisen wir ein Ergebnis als Erfolg zu und kodieren es als Eins, während das andere Ergebnis ein Misserfolg ist und als Null kodiert. Es ist wichtig zu beachten, dass die Begriffe „Erfolg“ und „Misserfolg“ willkürlich sind und keine Werturteile über die Ergebnisse implizieren.

Indem wir die Variable auf diese Weise kodieren, erstellen wir eine diskrete Zufallsvariable, die wir X nennen. X kann zwei Werte annehmen, eins und null, mit den Wahrscheinlichkeiten p bzw. (1 – p). Dabei stellt p die Erfolgswahrscheinlichkeit dar.

Für diese Art von Zufallsvariablen können wir zusammenfassende Informationen berechnen. Der Mittelwert oder Erwartungswert ist die Summe aller möglichen Werte der Zufallsvariablen gewichtet mit ihren jeweiligen Wahrscheinlichkeiten. Für einen Bernoulli-Versuch ist der Mittelwert gleich p.

Die Standardabweichung einer Zufallsvariablen ist die Quadratwurzel der Summe der Quadrate der Differenzen zwischen einzelnen Werten und dem erwarteten Wert, jeweils gewichtet mit ihren Wahrscheinlichkeiten. Für einen Bernoulli-Versuch wird die Standardabweichung durch die Quadratwurzel von (p * (1 – p)) angegeben.

Betrachten wir nun die Durchführung von n identischen, unabhängigen Bernoulli-Versuchen, wobei p über alle Versuche hinweg konstant bleibt. Der Anteil der Erfolge in diesen Versuchen wird als p-hat bezeichnet, was (1/n) * sum(xi) entspricht, wobei xi eins für Erfolg und null für Misserfolg ist. Mit anderen Worten, p-hat ist der Anteil der Erfolge in den n Versuchen.

Da es sich bei p-hat nur um einen Stichprobenmittelwert handelt, können wir unser Wissen über Stichprobenmittelwerte darauf anwenden. Der Mittelwert von p-hat ist gleich p, also derselbe wie der Mittelwert für einen einzelnen Bernoulli-Versuch. Die Standardabweichung von p-hat entspricht der Quadratwurzel von ((p * (1 - p)) / n), also der Standardabweichung eines einzelnen Bernoulli-Versuchs dividiert durch die Quadratwurzel von n. Nach dem zentralen Grenzwertsatz ist die Stichprobenverteilung von p-hat ungefähr normal, wenn n groß ist, typischerweise 30 oder mehr.

Lassen Sie uns nun die Konfidenzintervalle besprechen. Im Falle eines Mittelwerts ist die Grundstruktur eines Konfidenzintervalls mu = x-bar +/- z-star * Sigma-sub-x-bar. In ähnlicher Weise lautet die Konfidenzintervallformel für einen Anteil p = p-hat +/- z-star * sqrt((p-hat * (1 - p-hat)) / n).

In der Anteilsformel stellt p-hat den experimentellen Anteil der Erfolge in unserer Stichprobe dar, während p die Gesamterfolgswahrscheinlichkeit ist, die wir zu schätzen versuchen. Die Fehlerquote nimmt ab, wenn p-hat nahe bei Null oder Eins liegt. Daher ist es in solchen Fällen ratsam, dieses Konfidenzintervall nicht zu verwenden.

Um die erforderliche Stichprobengröße für eine gegebene Fehlerspanne (e) zu bestimmen, verwenden wir die Formel n = (p-hat * (1 - p-hat) * z-star^2) / epsilon^2. Wenn wir keine vorläufigen Daten haben, können wir die konservativste Schätzung verwenden, p-hat = 0,5, die die größtmögliche Stichprobengröße ergibt. In diesem Fall lautet die Formel n = (z-star^2) / (4 * epsilon^2).

Betrachten wir ein Beispiel. Angenommen, wir möchten eine Umfrage mit einer Sicherheit von 95 % durchführen und die Fehlerquote sollte nicht größer als 3 % sein. Da uns keine vorläufigen Daten vorliegen, verwenden wir die konservative Schätzung p-hat = 0,5. Wenn wir die Werte z-star = 1,96 und epsilon = 0,03 in die Formel einsetzen, erhalten wir:

n = (1,96^2) / (4 * 0,03^2) ≈ 1067,1

Da die Stichprobengröße eine ganze Zahl sein muss, runden wir den Wert auf, um sicherzustellen, dass die Fehlerquote 3 % nicht überschreitet. Daher benötigen wir für diese Umfrage eine Stichprobengröße von 1068.

Zusammenfassend lässt sich sagen, dass die Konstruktion von Konfidenzintervallen für Anteile die Zuweisung von Erfolgs- und Misserfolgswerten, die Berechnung von Stichprobenmittelwerten und Standardabweichungen sowie die Verwendung der entsprechenden Formeln zur Bestimmung der Konfidenzintervalle umfasst. Es ist wichtig, die Bedingungen für die Verwendung dieser Intervalle zu berücksichtigen und die Stichprobengröße basierend auf der gewünschten Fehlerspanne anzupassen.

 

Konfidenzintervalle für Proportionen: Beispiele


Konfidenzintervalle für Proportionen: Beispiele

Heute werden wir an zwei Beispielproblemen arbeiten, bei denen es um die Konstruktion von Konfidenzintervallen für Proportionen geht. Tauchen wir ein in die Probleme:

Problem 1: Eine Umfrage unter 275 zufällig ausgewählten amerikanischen Erwachsenen ergab, dass 29 von ihnen Kaffee trinken. Wir müssen ein 90 %-Konfidenzintervall für den Anteil aller amerikanischen Erwachsenen erstellen, die Kaffee trinken.

Unter Verwendung der Formel für ein Konfidenzintervall für Proportionen: p = p̂ ± z √(p̂(1 - p̂)/n), wobei p̂ der Stichprobenanteil, n die Stichprobengröße und z der entsprechende kritische Z-Wert ist das gewünschte Konfidenzniveau.

Bei p̂ = 29/275 = 0,1055, n = 275 und z* = 1,645 (für ein Konfidenzniveau von 90 %) können wir diese Werte einsetzen:

p = 0,1055 ± 1,645 * √((0,1055 * (1 - 0,1055))/275)

Bei der Berechnung dieses Ausdrucks stellen wir fest, dass das Konfidenzintervall für den Anteil amerikanischer Erwachsener, die Kaffee trinken, etwa 0,1055 ± 0,045 beträgt. Somit können wir mit 90-prozentiger Sicherheit abschätzen, dass der wahre Anteil innerhalb des Intervalls (0,0605, 0,1505) liegt.

Problem 2: Ein Forscher möchte das Teetrinken in Amerika untersuchen und muss die erforderliche Stichprobengröße bestimmen, um eine Fehlermarge von nicht mehr als 4 % zu gewährleisten.

Mithilfe der Formel für die Fehlerspanne in einem Konfidenzintervall für Proportionen: e = z*√(p̂(1 - p̂)/n) können wir sie neu anordnen, um nach der Stichprobengröße aufzulösen:

n = (z*^2 * p̂(1 - p̂)) / e^2.

In diesem Fall liegen uns keine vorläufigen Daten vor, daher verwenden wir die konservativste Schätzung für p̂, die bei 0,5 liegt (was maximale Variabilität anzeigt). Bei z* = 1,645 (für ein Konfidenzniveau von 90 %) und e = 0,04 können wir diese Werte in die Formel einsetzen:

n = (1,645^2 * 0,5(1 - 0,5)) / 0,04^2

Wenn wir den Ausdruck vereinfachen, stellen wir fest, dass die minimal erforderliche Stichprobengröße ungefähr 257,03 beträgt. Da die Stichprobengröße eine ganze Zahl sein muss, runden wir auf, um sicherzustellen, dass die gewünschte Fehlermarge nicht überschritten wird. Daher ist eine Stichprobengröße von 258 erforderlich, um eine Fehlermarge von nicht mehr als 4 % zu gewährleisten.

Zusammenfassend lässt sich sagen, dass die Konstruktion von Konfidenzintervallen für Anteile die Verwendung von Formeln erfordert, die Stichprobenanteile, Stichprobengrößen und kritische Werte berücksichtigen. Durch die Anwendung dieser Formeln können wir Bevölkerungsanteile innerhalb eines bestimmten Vertrauensniveaus schätzen und die Stichprobengröße bestimmen, die erforderlich ist, um eine gewünschte Fehlermarge zu erreichen.

 

Einführung in das Testen von Hypothesen


Einführung in das Testen von Hypothesen

Hallo zusammen, in der heutigen Sitzung werden wir uns mit Hypothesentests, auch Signifikanztests genannt, befassen. Um das Konzept besser zu verstehen, werden wir gemeinsam ein Beispiel durcharbeiten. Lass uns anfangen.

Angenommen, ein Schokoladenhersteller gibt an, dass seine Schokoriegel durchschnittlich 350 Gramm wiegen. Allerdings vermute ich, dass ihre Angaben übertrieben sind und das wahre Durchschnittsgewicht ihrer Schokoriegel weniger als 350 Gramm beträgt. Um dies zu untersuchen, sammle ich eine Probe von 10 Schokoriegeln und notiere deren Gewichte. Liegt der Mittelwert der Probe unter 350 Gramm, ist dies ein Beweis gegen die Behauptung des Unternehmens. Wenn es 350 Gramm oder mehr beträgt, wird ihre Behauptung nicht in Frage gestellt.

Nehmen wir an, dass meine Probe ein Durchschnittsgewicht von 347 Gramm ergibt, was unter 350 Gramm liegt. Folglich bestätigt dieses Ergebnis meine Vermutung und stellt die Behauptung des Unternehmens in Frage. Das Unternehmen könnte jedoch argumentieren, dass meine Probe zufällig leicht gewesen sein könnte, und wenn ich eine weitere Probe entnehmen würde, könnte sie zufällig genau 350 Gramm oder sogar mehr ergeben. Daher brauche ich eine Methode, um eine Entscheidung zwischen diesen beiden Möglichkeiten zu treffen: ob das Unternehmen lügt oder das Ergebnis auf Zufall zurückzuführen ist.

In einer solchen Situation können wir am besten eine Wahrscheinlichkeitsaussage über den Anspruch des Unternehmens treffen. Wir wollen die Wahrscheinlichkeit ermitteln, dass wir, wenn das Unternehmen die Wahrheit sagt, einen Stichprobenmittelwert erhalten würden, der genauso niedrig ist wie der, den wir rein zufällig beobachtet haben. Eine geringere Wahrscheinlichkeit weist auf stärkere Beweise gegen die Behauptung des Unternehmens hin.

Um mathematisch vorzugehen, nehmen wir die Nullhypothese H0 an, die mit der Behauptung des Unternehmens übereinstimmt. In diesem Fall besagt die Nullhypothese, dass das Grundgesamtheitsmittel aller Schokoriegel genau 350 Gramm beträgt. Auf der anderen Seite haben wir die Alternativhypothese, die als Ha bezeichnet wird und das darstellt, was wir etablieren wollen. In diesem Fall behauptet Ha, dass das Durchschnittsgewicht aller Schokoriegel weniger als 350 Gramm beträgt (Ha: μ < 350).

Es ist wichtig zu beachten, dass sich sowohl H0 als auch Ha auf Populationsparameter beziehen, nicht auf den Stichprobenmittelwert (x-Balken). Wir haben x-bar noch nicht erwähnt, da wir damit eine Entscheidung zwischen H0 und Ha treffen werden.

Um die Wahrscheinlichkeit zu berechnen, müssen wir die Stichprobenverteilung von x-bar berücksichtigen. Wir gehen davon aus, dass die Nullhypothese wahr ist, und stellen uns vor, mehrere Stichproben der Größe 10 zu erhalten. Wie sieht die Verteilung von x-bar aus? Während das Gewicht einzelner Schokoriegel variieren kann, stimmt das Durchschnittsgewicht (x-Riegel) im Durchschnitt mit dem Bevölkerungsmittelwert (μ) überein.

Der zentrale Grenzwertsatz hilft uns außerdem, die Stichprobenverteilung zu verstehen. Bei einer ausreichend großen Stichprobengröße (häufig n > 30) nähert sich die Stichprobenverteilung von x-bar einer Normalverteilung mit Mittelwert μ und Standardabweichung σ/√n an. Wenn die Bevölkerungsverteilung selbst normal ist, ist die Näherung exakt und die Verteilung des x-Balkens ist genau normal.

Stellen Sie sich die blaue Kurve vor, die einzelne Schokoriegel darstellt, bei denen unter der Nullhypothese ein Durchschnittsgewicht von 350 Gramm vorliegt. Einige Stäbe können etwas schwerer oder leichter sein, bei einigen kann es zu erheblichen Abweichungen kommen. Visualisieren Sie nun die grüne Kurve, die die Stichprobenverteilung von x-bar darstellt. Wenn die Nullhypothese zutrifft, beträgt der x-bar im Durchschnitt 350 Gramm, mit geringfügigen Abweichungen. Allerdings ist die Variabilität im X-Balken im Vergleich zu einzelnen Balken geringer, da sich extreme Gewichte in einer Stichprobe tendenziell ausgleichen.

Nehmen wir an, wir kennen die Standardabweichung der Schokoriegel, die 4 Gramm beträgt. Obwohl dies möglicherweise kein Wert ist, den wir normalerweise kennen, werden wir uns in zukünftigen Videos damit befassen. Mit der Nullhypothese von μ = 350 Gramm und dem zentralen Grenzwertsatz haben wir alle notwendigen Informationen über die Stichprobenverteilung von x-bar. Es folgt einer Normalverteilung mit einem Mittelwert von 350 Gramm und einer Standardabweichung von 4 Gramm geteilt durch die Quadratwurzel aus 10 (da die Stichprobengröße 10 beträgt), was ungefähr 1,26 Gramm entspricht.

Um die Wahrscheinlichkeit zu berechnen, rein zufällig einen Stichprobenmittelwert (x-Balken) von weniger als oder gleich 347 Gramm zu erhalten, können wir einen Z-Score berechnen. Die Wahrscheinlichkeit, dass x-bar kleiner oder gleich 347 Gramm ist, ist gleich der Wahrscheinlichkeit, dass der entsprechende z-Score kleiner oder gleich (347 - 350) / 1,26 ist, was vereinfacht -2,37 ergibt.

Mithilfe einer Statistiksoftware oder einer Tabelle ermitteln wir, dass die Wahrscheinlichkeit, dass eine Standardnormalverteilung kleiner oder gleich -2,37 ist, etwa 0,0089 beträgt. Diese Wahrscheinlichkeit wird p-Wert genannt.

Lassen Sie uns nun die Interpretation des p-Werts diskutieren. In diesem Fall ist der p-Wert von 0,0089 relativ klein. Der p-Wert stellt die Wahrscheinlichkeit dar, einen Stichprobenmittelwert von 347 Gramm oder weniger zu erhalten, wenn die Nullhypothese (μ = 350 Gramm) wahr ist. Ein kleiner p-Wert deutet darauf hin, dass es unwahrscheinlich ist, einen so niedrigen Stichprobenmittelwert zu beobachten, wenn die Nullhypothese wahr ist.

Es gibt zwei Möglichkeiten zu berücksichtigen: Erstens ist es möglich, dass die Nullhypothese wahr ist und wir zufällig ein seltenes Ereignis (Stichprobenmittelwert von 347 Gramm oder weniger) beobachtet haben, das in etwa 0,0089 Fällen auftritt. Zweitens ist es möglich, dass die Nullhypothese falsch ist (wie wir zunächst vermutet haben) und die Alternativhypothese (μ < 350 Gramm) wahr ist.

Da der p-Wert von 0,0089 recht niedrig ist, erscheint die erste Möglichkeit unwahrscheinlich. Daher lehnen wir die Nullhypothese (H0: μ = 350 Gramm) ab und unterstützen die Alternativhypothese (Ha: μ < 350 Gramm). Dies lässt uns zu dem Schluss kommen, dass es starke Beweise dafür gibt, dass das durchschnittliche Gewicht der von diesem Unternehmen hergestellten Schokoriegel in der Bevölkerung tatsächlich weniger als 350 Gramm beträgt.

Abschließend haben wir die grundlegenden Schritte zur Durchführung eines Hypothesentests behandelt. Allerdings gibt es weitere Fragen, die wir noch nicht beantwortet haben, wie etwa die Bestimmung des Schwellenwerts für einen ausreichend kleinen p-Wert, die Berücksichtigung alternativer Hypothesen und den Umgang mit Situationen, in denen Populationsparameter unbekannt sind. In zukünftigen Videos werden wir diesen Fragen nachgehen und weitere Einblicke in das Testen von Hypothesen geben.

 

Statistische Signifikanz


Statistische Signifikanz

Guten Tag allerseits! Heute werden wir tiefer in das Konzept des Hypothesentests eintauchen und die Idee der statistischen Signifikanz diskutieren. Hypothesentests gibt es in verschiedenen Formen. Die gebräuchlichsten sind der Z-Test und der T-Test für Populationsmittelwerte. Dennoch bleibt die grundlegende Logik dieselbe.

Zunächst gehen wir davon aus, dass die Nullhypothese wahr ist. Dann sammeln wir eine Stichprobe von Daten und berechnen die Wahrscheinlichkeit, eine ähnliche Stichprobe rein zufällig zu erhalten, vorausgesetzt, die Nullhypothese ist korrekt. Diese Wahrscheinlichkeit wird als p-Wert des Tests bezeichnet. Ein niedrigerer p-Wert weist auf stärkere Beweise gegen die Nullhypothese hin.

In den meisten Fällen reicht jedoch ein einfacher Vergleich der p-Werte möglicherweise nicht aus, um eine endgültige Entscheidung zu treffen. Daher ist es oft hilfreich, vor der Durchführung des Hypothesentests einen vorgegebenen p-Wert festzulegen, der als Signifikanzniveau Alpha bezeichnet wird. Im Allgemeinen wird Alpha auf 0,05 eingestellt, obwohl es variieren kann.

Wenn wir die Nullhypothese auf der Grundlage eines p-Werts ablehnen, der kleiner als Alpha ist, betrachten wir die Ergebnisse als statistisch signifikant. Mit anderen Worten: Die Beweise stützen die Alternativhypothese. Schauen wir uns nun einige Beispiele an, um diese Konzepte zu veranschaulichen.

Beispiel 1: Ein Schokoladenhersteller gibt an, dass das Durchschnittsgewicht seiner Schokoriegel 350 Gramm beträgt. Wir vermuten jedoch, dass das tatsächliche Durchschnittsgewicht niedriger ist. Wir haben einen Signifikanztest erstellt, indem wir eine Nullhypothese aufgestellt haben, dass die Behauptung des Unternehmens wahr ist, und eine Alternativhypothese, dass das Durchschnittsgewicht weniger als 350 Gramm beträgt. Wir entscheiden uns im Voraus für die Verwendung eines Signifikanzniveaus von Alpha gleich 0,05.

Nachdem wir eine Stichprobe der Größe 10 gesammelt und einen Stichprobenmittelwert von 347 Gramm berechnet haben, bestimmen wir die Wahrscheinlichkeit, so extreme Ergebnisse zu erhalten, unter der Annahme, dass die Nullhypothese wahr ist. Daraus ergibt sich ein p-Wert von 0,0089. Da dieser p-Wert unter 0,05 liegt, lehnen wir die Nullhypothese ab und kommen zu dem Schluss, dass das durchschnittliche Gewicht der Schokoriegel des Unternehmens tatsächlich weniger als 350 Gramm beträgt.

Beispiel 2: Medizinische Forscher führen eine Studie durch, um die Wirksamkeit eines neuen Medikaments zur Gewichtsreduktion zu testen. Sie wählen ein Signifikanzniveau von Alpha von 0,01. Die Nullhypothese besagt, dass der durchschnittliche Gewichtsverlust im Vergleich zu einem Placebo Null beträgt, während die Alternativhypothese einen positiven durchschnittlichen Gewichtsverlust nahelegt. Nach der Analyse der Daten erhalten sie einen p-Wert von 0,045. Da der p-Wert größer als das gewählte Signifikanzniveau von 0,01 ist, können sie die Nullhypothese nicht ablehnen. Daher gibt es keine ausreichende Evidenz für die Schlussfolgerung, dass die Behandlung im Durchschnitt dem Placebo überlegen ist.

Es ist wichtig zu beachten, dass die Schlussfolgerung anders hätte ausfallen können, wenn stattdessen ein Signifikanzniveau von Alpha = 0,05 gewählt worden wäre. Dies verdeutlicht die potenzielle Gefahr von Signifikanztests und der Verwendung von Alpha-Schwellenwerten. Es kann riskant sein, sich bei der Entscheidungsfindung blind auf Hypothesentests zu verlassen. Geben Sie immer den p-Wert zusammen mit jeder Entscheidung an, die auf der Grundlage des Signifikanzniveaus Alpha getroffen wird. Seien Sie außerdem vorsichtig bei der Interpretation von p-Werten und berücksichtigen Sie verschiedene Faktoren, wie ich im nächsten Video besprechen werde.

 

Hypothesentest: Ein- und zweiseitige Alternativen


Hypothesentest: Ein- und zweiseitige Alternativen

In der heutigen Diskussion werden wir uns eingehender mit dem Konzept des Hypothesentests befassen und uns dabei insbesondere auf einseitige und zweiseitige Alternativhypothesen konzentrieren. Beginnen wir damit, die grundlegende Struktur eines Hypothesentests für den Mittelwert noch einmal zu betrachten.

Der erste Schritt besteht darin, die Nullhypothese zu identifizieren, die als H₀ bezeichnet wird. Diese Aussage bezieht sich auf den Bevölkerungsdurchschnitt und stellt die Behauptung dar, gegen die wir Beweise sammeln wollen. Anschließend stellen wir eine Alternativhypothese mit der Bezeichnung Hₐ auf, die der Nullhypothese widerspricht und typischerweise die Hypothese darstellt, die wir aufstellen möchten. Die Idee hinter diesem Prozess ist, dass wir durch die Sammlung von Beweisen gegen die Nullhypothese indirekt Beweise für die Alternativhypothese sammeln.

Anschließend sammeln wir Daten und berechnen einen Stichprobenmittelwert, der als x̄ bezeichnet wird. Von dort aus bestimmen wir die Wahrscheinlichkeit (p-Wert), einen Stichprobenmittelwert zu erhalten, der so extrem ist wie der von uns beobachtete, vorausgesetzt, die Nullhypothese ist wahr. Der p-Wert gibt die Stärke der Beweise gegen die Nullhypothese an, wobei niedrigere Werte stärkere Beweise für die Alternativhypothese anzeigen. Oft schließen wir den Hypothesentest ab, indem wir den p-Wert mit einem vorab festgelegten Grenzwert vergleichen, der als Alpha bezeichnet wird und das Signifikanzniveau des Tests angibt. Wenn der p-Wert kleiner als Alpha ist, lehnen wir die Nullhypothese ab. Es ist wichtig zu beachten, dass das Signifikanzniveau Alpha vor der Datenerfassung ausgewählt werden muss.

Lassen Sie uns nun alternative Hypothesen genauer untersuchen. In der vorherigen Diskussion haben wir festgestellt, dass die Alternativhypothese so gewählt wird, dass sie der Nullhypothese widerspricht. Selbst für eine einfache Nullhypothese von mu gleich mu₀, wobei mu₀ einen hypothetischen Wert darstellt, gibt es drei mögliche Alternativhypothesen:

  1. mu < mu₀: Diese Alternativhypothese besagt, dass der Populationsmittelwert mu kleiner ist als der hypothetische Wert mu₀.
  2. mu > mu₀: Diese alternative Hypothese legt nahe, dass der Populationsmittelwert mu größer ist als der hypothetische Wert mu₀.
  3. mu ≠ mu₀: Diese Alternativhypothese macht keine Annahmen über den spezifischen Wert von mu.

Die ersten beiden Alternativhypothesen werden aufgrund ihrer Fokussierung auf eine bestimmte Richtung als einseitige Alternativen bezeichnet, während die dritte Alternative als zweiseitige Alternativhypothese bezeichnet wird. Jede dieser Alternativen widerspricht der Nullhypothese auf leicht unterschiedliche Weise.

Bei der Durchführung eines Hypothesentests für den Mittelwert hängt die Wahl zwischen diesen Optionen von realen Überlegungen ab. Als allgemeine Richtlinie ist es ratsam, die zweiseitige Alternativhypothese zu wählen, es sei denn, es gibt einen bestimmten, auf realen Faktoren basierenden Grund für die Annahme, dass der Mittelwert der Grundgesamtheit nicht größer oder kleiner als der durch die Hypothese bereitgestellte Wert sein kann oder sollte Nullhypothese, mu₀.

Um unser Verständnis zu verbessern, fahren wir mit einigen Beispielen fort. Das erste Beispiel betrifft einen Süßwarenhersteller, der behauptet, dass das durchschnittliche Gewicht seiner Schokoriegel 350 Gramm beträgt. Wenn wir vermuten, dass das Durchschnittsgewicht tatsächlich geringer ist, wäre die Nullhypothese die Behauptung des Unternehmens, während die Alternativhypothese mu < 350 Gramm wäre. In diesem Fall geht es uns ausschließlich um die Möglichkeit, dass das Durchschnittsgewicht der Schokoriegel unter 350 Gramm liegt.

Im zweiten Beispiel wird in einem Lehrhandbuch behauptet, dass eine bestimmte Übung durchschnittlich 30 Minuten dauert. Die Nullhypothese wäre die Behauptung des Handbuchs, mu = 30, und die Alternativhypothese wäre mu ≠ 30. Hier haben wir keinen berechtigten Grund, die Möglichkeit auszuschließen oder zu ignorieren, dass mu entweder kleiner oder größer als 30 ist.

Im dritten Beispiel behauptet ein Ölwechselunternehmen, dass ein Ölwechsel im Durchschnitt in 15 Minuten abgeschlossen sei. Angenommen, wir vermuten, dass die tatsächliche Zeit länger ist.

Wenn der p-Wert kleiner oder gleich dem Signifikanzniveau (Alpha) ist, lehnen wir die Nullhypothese ab. Dies bedeutet, dass die Daten starke Beweise gegen die Nullhypothese liefern und die Alternativhypothese stützen. Wenn andererseits der p-Wert größer als das Signifikanzniveau ist, können wir die Nullhypothese nicht ablehnen. In diesem Fall liefern die Daten keine ausreichenden Beweise, um die Nullhypothese abzulehnen, und wir haben nicht genügend Unterstützung für die Alternativhypothese.

Es ist wichtig zu beachten, dass die Nichtablehnung der Nullhypothese nicht unbedingt bedeutet, dass die Nullhypothese wahr ist. Es bedeutet lediglich, dass die Daten keine signifikanten Beweise zur Stützung der Alternativhypothese liefern. Das Fehlen von Beweisen gegen die Nullhypothese beweist nicht, dass sie wahr ist.

Die Wahl zwischen einer einseitigen oder zweiseitigen Alternativhypothese hängt von der konkreten Forschungsfrage und den Hypothesen ab, mit denen Sie sich befassen möchten. Wenn Sie feststellen möchten, ob der Grundgesamtheitsmittelwert signifikant von einem bestimmten Wert abweicht, würden Sie eine zweiseitige Alternativhypothese wählen. Dadurch können Sie beide Möglichkeiten in Betracht ziehen, ob der Mittelwert größer oder kleiner als der hypothetische Wert ist.

Wenn Sie jedoch einen bestimmten Grund zu der Annahme haben, dass der Mittelwert nur größer oder kleiner als der hypothetische Wert sein kann, können Sie eine einseitige Alternativhypothese wählen. Dies schränkt den Fokus des Tests auf nur eine Richtung der Abweichung von der Nullhypothese ein.

Zusammenfassend umfasst das Testen von Hypothesen die Formulierung einer Nullhypothese, die die Aussage darstellt, gegen die Sie Beweise sammeln möchten, und einer Alternativhypothese, die der Nullhypothese widerspricht. Es werden Daten gesammelt und eine Teststatistik berechnet, beispielsweise der Stichprobenmittelwert. Anschließend wird der p-Wert berechnet, der die Wahrscheinlichkeit darstellt, eine so extreme Teststatistik wie die beobachtete zu erhalten, vorausgesetzt, die Nullhypothese ist wahr. Die Wahl einer einseitigen oder zweiseitigen Alternativhypothese hängt von der Forschungsfrage und den spezifischen Annahmen über den Populationsparameter ab. Abschließend wird der p-Wert mit dem Signifikanzniveau verglichen und auf der Grundlage der durch die Daten bereitgestellten Beweise wird entschieden, ob die Nullhypothese abgelehnt werden soll oder nicht.