Programmier-Tutorial - Seite 16

 

Hypothesentest: Beispiel


Hypothesentest: Beispiel

Heute werden wir ein Beispiel für das Testen einer Hypothese für den Mittelwert durchgehen. Bevor wir uns mit dem konkreten Beispiel befassen, werfen wir einen Blick auf die allgemeine Vorgehensweise. Es beginnt immer mit der Aufstellung von Hypothesen, einschließlich der Nullhypothese, die die Idee darstellt, gegen die wir Beweise sammeln wollen, und der Alternativhypothese, die wir unterstützen wollen. Unter der Annahme, dass die Nullhypothese wahr ist, untersuchen wir, wo unser Stichprobenmittelwert (X-Balken) unter allen möglichen Stichprobenmittelwerten unter dieser Annahme liegt.

Dazu berechnen wir einen Z-Score, der die Abweichung unseres Ergebnisses im Kontext der Nullhypothese misst. Für eine einseitige Alternativhypothese, die prüft, ob der Populationsmittelwert (μ) kleiner oder größer als ein bestimmter Wert ist, berechnen wir die Wahrscheinlichkeit, einen Z-Score zu erhalten, der kleiner oder gleich dem von uns erhaltenen ist. Für eine zweiseitige Alternativhypothese berechnen wir eine der beiden Wahrscheinlichkeiten und verdoppeln sie dann entsprechend.

In der formalsten Darstellung ermitteln wir die Wahrscheinlichkeit, einen Z-Score zu erhalten, der kleiner oder gleich dem negativen Absolutwert unseres erhaltenen Z-Scores ist. Mithilfe der kumulativen Verteilungsfunktion berücksichtigen wir sowohl den linken als auch den rechten Rand. Sobald wir den p-Wert haben, vergleichen wir ihn mit dem gewählten Signifikanzniveau (Alpha). Wenn der p-Wert kleiner als Alpha ist, lehnen wir die Nullhypothese ab und kommen zu dem Schluss, dass die Alternativhypothese unterstützt wird.

Wenden wir dies nun auf ein tatsächliches Beispiel an. Eine Verbraucherschutzgruppe testet den Vitamin-C-Gehalt eines Bio-Nahrungsergänzungsmittels, das angeblich durchschnittlich 1000 Milligramm Vitamin C pro Tablette enthält. Bei einer Stichprobengröße von 32 ermitteln sie einen Stichprobenmittelwert von 1008,9 Milligramm. Die Populationsstandardabweichung (σ) wird mit 21 Milligramm angegeben. Unsere Aufgabe besteht darin, festzustellen, ob genügend Beweise vorliegen, um die Behauptung des Produkts abzulehnen. Das Signifikanzniveau (Alpha) ist auf 0,05 festgelegt.

Nach dem allgemeinen Verfahren beginnen wir mit der Aufstellung der Hypothesen. Die Nullhypothese besagt, dass die Aussage des Produkts über einen durchschnittlichen Vitamin-C-Gehalt von 1000 Milligramm wahr ist, während die Alternativhypothese besagt, dass der wahre Mittelwert von 1000 Milligramm abweicht. Da es keinen konkreten Hinweis darauf gibt, nur Werte kleiner oder größer als 1000 zu berücksichtigen, entscheiden wir uns für eine zweiseitige Alternativhypothese.

Als nächstes berechnen wir den Z-Score mithilfe der Formel (Stichprobenmittelwert – erwarteter Wert) / (Standardabweichung des Stichprobenmittelwerts). Unter der Annahme der Nullhypothese verwenden wir einen Mittelwert von 1000 Milligramm und berechnen die Standardabweichung des Stichprobenmittelwerts als σ / √n, wobei n die Stichprobengröße ist. Folglich beträgt der Z-Score 2,39, was darauf hinweist, dass unser Stichprobenmittelwert von 1008,9 Milligramm um 2,39 Standardabweichungen vom erwarteten Mittelwert unter der Nullhypothese abweicht.

Um den p-Wert zu bestimmen, müssen wir die Wahrscheinlichkeit ermitteln, einen Z-Score zu erhalten, der genauso extrem ist wie der, den wir haben (entweder positiv oder negativ). In diesem Fall berechnen wir P(Z ≤ -2,39), was 0,0084 ergibt. Da es sich um einen zweiseitigen Test handelt, verdoppeln wir die Wahrscheinlichkeit, 0,0168 zu erhalten.

Wenn wir den p-Wert mit dem Signifikanzniveau vergleichen, stellen wir fest, dass 0,0168 tatsächlich weniger als 0,05 ist. Daher verfügen wir über ausreichende Beweise, um die Nullhypothese abzulehnen und zu dem Schluss zu kommen, dass das Nahrungsergänzungsmittel nicht durchschnittlich 1000 Milligramm Vitamin C enthält.

 

Fehler vom Typ I und Typ II in Signifikanztests


Fehler vom Typ I und Typ II in Signifikanztests

Heute besprechen wir Situationen, in denen Signifikanztests nicht wie geplant verlaufen. Lassen Sie uns alles in nur drei Minuten abdecken. Lass uns anfangen.

Beim Hypothesentest stoßen wir auf zwei mögliche Zustände für H Null (die Nullhypothese): Sie kann wahr oder falsch sein. Am Ende des Tests haben wir zwei mögliche Entscheidungen: entweder H naught abzulehnen oder es nicht abzulehnen. Dies ergibt insgesamt vier mögliche Ergebnisse. Wir können die Kombinationen dieser beiden Entscheidungen untersuchen. Ich habe eine Tabelle, die diese Ergebnisse zusammenfasst, und zwei davon bringen uns Genugtuung: H-Null abzulehnen, wenn es falsch ist, und H-Null nicht abzulehnen, wenn es wahr ist. Es gibt jedoch zwei Situationen, die nicht wünschenswert sind.

Wenn wir uns mit diesem Thema befassen, ist es wichtig zu beachten, dass wir zu Beginn normalerweise keine Vorinformationen darüber haben, ob H Null wahr oder falsch ist. Wenn wir solche Informationen erhalten, kommen sie normalerweise viel später. Lassen Sie uns nun die beiden ungünstigen Ergebnisse besprechen. Der erste Fehler wird als Fehler vom Typ 1 oder falsch positiv bezeichnet. Dies geschieht, wenn wir die Nullhypothese ablehnen, obwohl sie wahr ist. Es passiert, wenn ein zufälliges Ereignis eintritt und wir es fälschlicherweise als bedeutsam interpretieren. Die zweite Situation ist ein Fehler vom Typ 2 oder ein falsch negatives Ergebnis. Dies geschieht, wenn wir die Nullhypothese nicht ablehnen, obwohl sie tatsächlich falsch ist. In diesem Fall passiert etwas Bedeutendes, aber unser Test kann es nicht erkennen.

Die Begriffe „falsch positiv“ und „falsch negativ“ stammen aus medizinischen Tests, deren logischer Rahmen dem Signifikanztest ähnelt. Bei medizinischen Tests kann es sein, dass Sie auf eine Krankheit testen, und der Test kann das Vorhandensein oder Nichtvorhandensein einer Krankheit anzeigen. Die gesamten Fehler vom Typ 1 und Typ 2 sind in der bereitgestellten Tabelle zusammengefasst, wobei die gewünschten Ergebnisse mit Häkchen hervorgehoben sind.

Lassen Sie uns kurz ein paar Beispiele durchgehen. Angenommen, ein Schokoladenriegelhersteller gibt an, dass seine Riegel im Durchschnitt 350 Gramm wiegen. Ich habe den Verdacht, dass sie überschätzen, also sammle ich eine Stichprobe und lehne ihre Behauptung mit einem p-Wert von 0,0089 ab. Wenn die Behauptung des Herstellers jedoch tatsächlich wahr wäre und die Riegel ein durchschnittliches Gewicht von 350 Gramm hätten, hätte ich einen Typ-1-Fehler oder ein falsch positives Ergebnis begangen.

Hier ein weiteres Beispiel: Ein Restaurant gibt an, dass der durchschnittliche Natriumgehalt eines seiner Sandwiches 920 Milligramm beträgt. Ich analysiere eine Stichprobe, finde jedoch nicht genügend Beweise, um die Behauptung mit einem Alpha-Wert von 0,01 abzulehnen. Wenn die Behauptung des Restaurants falsch gewesen wäre, sagen wir mal, der durchschnittliche Natriumgehalt läge tatsächlich bei 950 Milligramm, hätte ich einen Fehler vom Typ 2 begangen, indem ich die Behauptung nicht zurückgewiesen hätte.

 

Hypothesentests anhand kritischer Regionen


Hypothesentests anhand kritischer Regionen

Hallo zusammen, heute werden wir Hypothesentests anhand kritischer Regionen besprechen. Obwohl dieser Ansatz als altmodisch angesehen werden kann, ist er in der Theorie, die wir behandeln werden, immer noch relevant. Daher ist es von Vorteil, ein grundlegendes Verständnis davon zu haben.

In der Vergangenheit war die Berechnung von p-Werten schwieriger als heute. Dabei musste man sich bei Berechnungen auf Tabellen verlassen, beispielsweise auf die Normalverteilung, die eine begrenzte Genauigkeit und endliche Einträge aufwies. Um die Notwendigkeit dieser Berechnungen zu minimieren, wurde üblicherweise das Konzept der kritischen Regionen oder Ablehnungsregionen verwendet.

Der typische Prozess zum Testen von Hypothesen besteht heute darin, einen p-Wert auf der Grundlage von Stichprobendaten zu berechnen und ihn mit dem gewählten Signifikanzniveau (Alpha) zu vergleichen. Bei kritischen Regionen kehren wir diesen Prozess jedoch um. Wir beginnen mit der Auswahl eines Signifikanzniveaus (Alpha), das dann einen Grenzwert für die Teststatistik definiert, der als Z-Stern oder T-Stern bezeichnet wird. Wenn die Stichprobendaten eine Stichprobenstatistik ergeben, die extremer als dieser Grenzwert ist, führt dies dazu, dass wir die Nullhypothese ablehnen.

Betrachten wir ein Beispiel, um dies zu veranschaulichen. Angenommen, wir haben eine zweiseitige Alternativhypothese und führen einen Test mit einer Normalverteilung und einem Signifikanzniveau von Alpha von 0,05 durch. In diesem Fall entspricht Alpha 0,05 einem schattierten Bereich von 0,05 in der Verteilung (0,025 auf jeder Seite). Durch die Durchführung einer inversen Normalberechnung (unter Verwendung des Befehls Q norm in R) ermitteln wir, dass der kritische Wert Z-Stern 1,96 beträgt. Wenn also die Stichprobenstatistik (Z-Stern) größer als 1,96 (absoluter Wert) ist, bedeutet dies, dass wir die Nullhypothese ablehnen sollten.

Betrachten wir als weiteres Beispiel eine t-Verteilung mit 8 Freiheitsgraden und einer einseitigen Alternative (rechtsseitige Alternative). Angenommen, wir wählen als Signifikanzniveau Alpha gleich 0,01. In diesem Fall gibt es rechts vom T-Stern eine Fläche von 0,01, was einer Fläche von 0,99 links entspricht. Durch die Verwendung eines inversen t-CDF (unter Verwendung des Befehls QT) mit den Werten 0,99 und 8 in R ermitteln wir, dass T-star ungefähr 2,9 beträgt. Wenn die t-Statistik der Stichprobe größer als 2,9 ist, fällt sie in den schattierten Bereich, was uns dazu veranlasst, die Nullhypothese abzulehnen.

Im Fall der Normalverteilung können wir den kritischen Z-Wert in eine Aussage über einen kritischen Stichprobenmittelwert übersetzen. Betrachten Sie das folgende Beispiel: Der Inhalt von Dosen einer bestimmten Cola-Marke ist normal verteilt mit einer Standardabweichung von 0,2 Unzen. Wir möchten eine Stichprobe der Größe 15 verwenden, um die Nullhypothese, dass der durchschnittliche Inhalt der Dosen 12 Unzen beträgt, im Vergleich zu einer alternativen Hypothese, dass sie tatsächlich weniger als 12 Unzen betragen, zu testen. Bei einer einseitigen Alternative und Alpha gleich 0,05 beträgt der kritische Z-Wert -1,645. Wenn also der Stichprobenmittelwert (X-Balken) mehr als 1,645 Standardabweichungen unter dem Mittelwert liegt, sollten wir die Nullhypothese ablehnen. Insbesondere wenn der Stichprobenmittelwert weniger als 11,92 Unzen beträgt, würden wir die Nullhypothese ablehnen.

 

Hypothesentest mit der t-Verteilung


Hypothesentest mit der t-Verteilung

Hallo zusammen, heute werden wir das Testen von Hypothesen mithilfe der t-Verteilung besprechen. In diesem Szenario haben wir es mit Situationen zu tun, in denen die Standardabweichung der Grundgesamtheit unbekannt ist. Zuvor haben wir Hypothesentests mithilfe der Z-Statistik durchgeführt, vorausgesetzt, wir kannten die Standardabweichung der Grundgesamtheit (Sigma). Bei der statistischen Inferenz besteht das Ziel jedoch darin, Stichprobeninformationen zu nutzen, um Erkenntnisse über die Bevölkerung zu gewinnen. Daher ist es üblich, Sigma nicht zu kennen. In solchen Fällen schätzen wir die Populationsstandardabweichung anhand der Stichprobenstandardabweichung(en) und führen ähnliche Berechnungen durch.

Die Herausforderung entsteht, weil, wenn Sigma durch s ersetzt wird, der Ausdruck (X-bar - mu)/(s/sqrt(n)) keiner Normalverteilung mehr folgt. Sowohl X-bar als auch s variieren mit jeder neuen Stichprobe, sodass die Verteilung einer t-Verteilung mit (n-1) Freiheitsgraden folgt. Wenn wir diese Anpassung berücksichtigen, bleiben die Berechnungen glücklicherweise weitgehend gleich.

Um einen Hypothesentest durchzuführen, wenn Sigma unbekannt ist, beginnen wir mit der Null- und Alternativhypothese. Unter der Annahme, dass die Nullhypothese wahr ist, berechnen wir die t-Statistik für die tatsächlichen Stichprobendaten: (X-bar – mu_naught)/(s/sqrt(n)). Anschließend berechnen wir p-Werte basierend auf der Alternativhypothese.

Für eine linksseitige Alternativhypothese, bei der wir vermuten, dass mu kleiner als ein gegebener Wert ist, ermitteln wir die Wahrscheinlichkeit, einen t-Wert zu erhalten, der kleiner oder gleich dem Wert ist, den wir erhalten haben, wenn die Nullhypothese wahr ist. Dies entspricht dem schattierten Bereich im ersten Bild.

In ähnlicher Weise bestimmen wir für eine rechtsseitige Alternativhypothese, bei der mu größer als ein gegebener Wert ist, die Wahrscheinlichkeit, einen t-Wert zu erhalten, der größer als der von uns ermittelte ist. Dies entspricht der Fläche rechts vom t-Wert.

Bei einem zweiseitigen Test betrachten wir beide Bereiche. Wir berechnen die Wahrscheinlichkeit, einen t-Wert zu erhalten, der (absolut) größer ist als der, den wir erhalten haben, und verdoppeln ihn dann.

Sobald wir den p-Wert haben, vergleichen wir ihn mit dem gewählten Signifikanzniveau (Alpha), um eine Entscheidung zu treffen. Wenn der p-Wert kleiner als Alpha ist, lehnen wir die Nullhypothese ab. Bei der manuellen Durchführung von Berechnungen kann es jedoch schwierig sein, den t-Wert aus den Beispieldaten zu ermitteln. Der Einsatz von Technologie wie Statistiksoftware oder Taschenrechnern wird empfohlen. In R berechnet beispielsweise der Befehl PT(t, n-1) die Fläche links von einem gegebenen t-Wert in einer t-Verteilung mit (n-1) Freiheitsgraden.

Betrachten wir ein Beispiel, um diesen Prozess zu demonstrieren. Nehmen wir an, wir haben die Gewichtsverluste von sieben Mäusen während eines Experiments. Wir möchten feststellen, ob ausreichende Beweise für den Schluss vorliegen, dass die Mäuse während des Experiments Gewicht verlieren, wobei das Signifikanzniveau Alpha 0,05 beträgt. Da uns die Standardabweichung der Grundgesamtheit nicht gegeben ist, haben wir es mit einer T-Test-Situation zu tun.

Zu Beginn des Tests stellen wir die Nullhypothese auf, wobei wir davon ausgehen, dass die Daten auf Zufall beruhen, und die Alternativhypothese, die besagt, dass Mäuse während des Experiments durchschnittlich an Gewicht verlieren. In diesem Fall wählen wir eine einseitige Alternativhypothese, die sich eher auf Gewichtsverlust als auf Gewichtszunahme konzentriert.

Als nächstes berechnen wir die t-Statistik anhand des Stichprobenmittelwerts und der Stichprobenstandardabweichung. Mit dem erhaltenen t-Wert berechnen wir den p-Wert, der die Wahrscheinlichkeit darstellt, allein durch Zufall einen t-Wert zu erhalten, der größer oder gleich dem beobachteten Wert ist.

Um diese Wahrscheinlichkeit zu bewerten, beziehen wir uns auf eine t-Verteilung mit (n-1) Freiheitsgraden. Wir berechnen die Fläche rechts vom t-Wert, indem wir die Fläche links von 1 subtrahieren. In R kann dies mit der PT-Funktion erfolgen. Wenn der p-Wert größer als das gewählte Signifikanzniveau (Alpha) ist, können wir die Nullhypothese nicht ablehnen.

In unserem Beispiel beträgt der berechnete p-Wert 0,059. Da 0,059 größer als das Signifikanzniveau von 0,05 ist, verfügen wir nicht über ausreichende Beweise, um die Nullhypothese abzulehnen. Daher können wir nicht den Schluss ziehen, dass das Experiment dazu führt, dass Mäuse im Durchschnitt abnehmen.

Es ist wichtig zu beachten, dass die Nichtablehnung der Nullhypothese nicht bedeutet, dass die Nullhypothese wahr ist. Es bedeutet lediglich, dass die Beweise nicht stark genug sind, um die Alternativhypothese zu stützen.

Zusammenfassend lässt sich sagen, dass wir, wenn es um Hypothesentests geht und die Populationsstandardabweichung unbekannt ist, die t-Verteilung verwenden und die Standardabweichung anhand der Stichprobenstandardabweichung schätzen können. Anschließend berechnen wir die t-Statistik, berechnen den p-Wert basierend auf der Alternativhypothese und vergleichen ihn mit dem Signifikanzniveau, um eine Entscheidung zu treffen. Die Verwendung von Statistiksoftware oder -tabellen kann die Berechnungen vereinfachen und genauere Ergebnisse liefern.

 

Signifikanztest mit der t-Verteilung: Beispiel


Signifikanztest mit der t-Verteilung: Beispiel

Hallo zusammen, heute möchte ich Sie durch ein weiteres Beispiel eines Hypothesentests mit der t-Verteilung führen. Dieses Beispiel konzentriert sich auf die Kohlenstoffaufnahmeraten einer bestimmten Grasart. Die gängige Meinung geht davon aus, dass die mittlere Aufnahmerate 34,0 Mikromol pro Quadratmeter und Sekunde beträgt. Eine Gruppe von Forschern hat jedoch ihre Zweifel. Sie führten eine Studie durch und ermittelten einen Stichprobenmittelwert von 30,6 mit einer Stichprobenstandardabweichung von 9,7. Bei einem Signifikanzniveau von 0,05 wollen sie nun feststellen, ob diese Daten starke Beweise gegen die herkömmliche Meinung liefern.

Wie bei jedem Signifikanztest beginnen wir damit, unsere Hypothesen explizit darzulegen. Die Nullhypothese, die wir in Frage stellen wollen, geht davon aus, dass unsere Stichprobendaten lediglich das Ergebnis eines Zufalls sind, und die herkömmliche Meinung gilt. Andererseits versucht die Alternativhypothese die Möglichkeit zu ermitteln, dass die tatsächliche mittlere Aufnahmerate entweder größer oder kleiner als 34,0 ist. In diesem Fall betrachten wir eine zweiseitige Alternativhypothese, die beide Szenarien umfasst.

Als Nächstes möchten wir beurteilen, wie extrem unser Stichprobenmittelwert (x-bar) im Vergleich zu dem ist, was wir unter der Nullhypothese erwarten würden. Wir berechnen die Teststatistik (T), indem wir den erwarteten Mittelwert unter der Nullhypothese (mu-naught) vom Stichprobenmittelwert subtrahieren und ihn durch die Stichprobenstandardabweichung (s) dividiert durch die Quadratwurzel der Stichprobengröße (n) dividieren. Diese Berechnung ergibt T = -2,27.

Um die Wahrscheinlichkeit zu bestimmen, eine Teststatistik mit einem Extremwert von -2,27 allein aufgrund des Zufalls zu erhalten, müssen wir beide Seiten der Verteilung berücksichtigen. Wir berechnen die kombinierte schattierte Fläche links und rechts von -2,27, was uns den p-Wert des Tests ergibt. In R können wir den Befehl PT verwenden, um den Bereich ganz links zu berechnen, der die Wahrscheinlichkeit darstellt, dass T kleiner als -2,27 ist. Dann verdoppeln wir diese Fläche, um beide Seiten der Verteilung zu berücksichtigen.

Nachdem wir den PT-Befehl in R mit -2,27 und Freiheitsgraden (df) gleich der Stichprobengröße minus eins (41) angewendet haben, stellen wir fest, dass der linke schattierte Bereich 0,029 beträgt. Wenn wir diesen Wert verdoppeln, erhalten wir die gesamte schattierte Fläche, die dem p-Wert des Tests entspricht.

Der berechnete p-Wert beträgt 0,029 und ist damit kleiner als unser Signifikanzniveau (Alpha) von 0,05. Daher lehnen wir die Nullhypothese ab und kommen zu dem Schluss, dass die mittlere Kohlendioxidaufnahmerate dieser Grasart nicht tatsächlich 34,0 Mikromol pro Quadratmeter und Sekunde beträgt.

Zusammenfassend lässt sich sagen, dass das Testen von Hypothesen mithilfe der t-Verteilung es uns ermöglicht, die Beweiskraft gegenüber der Nullhypothese zu bewerten, wenn die Standardabweichung der Grundgesamtheit unbekannt ist. Indem wir die Teststatistik berechnen, sie mit dem kritischen Wert (Signifikanzniveau) vergleichen und den p-Wert berechnen, können wir fundierte Entscheidungen hinsichtlich der Gültigkeit der Nullhypothese treffen.

 

Hypothesentest in R


Hypothesentest in R

Hallo an alle! Heute führen wir Hypothesentests in R mit dem Befehl t.test durch. Wir werden an einigen Problemen im Zusammenhang mit dem integrierten Luftqualitätsdatensatz arbeiten, den wir als einfache Zufallsstichprobe von Luftqualitätsmessungen aus New York City betrachten.

Wechseln wir zu R, wo ich bereits das Tidyverse-Paket geladen habe, was ich normalerweise zu Beginn meiner R-Sitzungen mache. Ich habe auch die Hilfedatei für den Luftqualitätsdatensatz aufgerufen. Dieser Datensatz wurde im Jahr 1973 erfasst, es handelt sich also nicht um die aktuellsten Daten. Wir können den View-Befehl verwenden, um einen Blick auf den Datensatz zu werfen. Es besteht aus 153 Beobachtungen zu sechs Variablen, darunter Wind und Sonneneinstrahlung, die beiden Variablen, die uns interessieren.

Bevor statistische Tests durchgeführt werden, empfiehlt es sich, die Daten zu visualisieren. Erstellen wir also ein Histogramm mit dem Befehl qplot. Wir konzentrieren uns auf die Windvariable und geben an, dass wir ein Histogramm wünschen.

Kommen wir nun zu Problem eins. Ein Beamter behauptet, dass die durchschnittliche Windgeschwindigkeit in der Stadt neun Meilen pro Stunde beträgt. Wir möchten anhand der Daten feststellen, ob diese Behauptung plausibel ist. Wir verwenden einen t-Test mit der Nullhypothese, dass die mittlere Windgeschwindigkeit neun Meilen pro Stunde beträgt. Wenn man sich das Histogramm ansieht, erscheint es plausibel, obwohl es leicht rechts von diesem Wert zentriert ist. Wir führen den T-Test mit dem Befehl t.test durch. Wir übergeben ihm die Windvariable und geben die Nullhypothese als mu = 9 an. Standardmäßig geht R von einer zweiseitigen Alternativhypothese aus. Der Befehl t.test liefert uns den Stichprobenmittelwert, die T-Statistik und den p-Wert. Der Stichprobenmittelwert beträgt 9,96 und die berechnete t-Statistik beträgt 3,36, was einem p-Wert von unter 0,1 entspricht. Bei einem so kleinen p-Wert ist es nicht plausibel, dass diese Daten allein aufgrund des Zufalls signifikant von der Nullhypothese abweichen. Daher lehnen wir die Nullhypothese ab und kommen zu dem Schluss, dass die mittlere Windgeschwindigkeit in New York nicht neun Meilen pro Stunde beträgt.

Wenn wir zu Problem zwei übergehen, wollen wir beurteilen, ob eine bestimmte Solaranlage kosteneffektiv wäre, wenn die mittlere Sonneneinstrahlung über 175 Langley liegt. Wir verwenden eine einseitige Alternativhypothese, bei der die Nullhypothese besagt, dass die mittlere Sonnenstrahlung 175 Langleys beträgt, und die Alternativhypothese besagt, dass sie größer ist. Wir visualisieren die Daten, indem wir ein Histogramm der Sonneneinstrahlungsvariablen erstellen. Auch hier erscheint die Nullhypothese anhand des Histogramms plausibel. Wir führen den t-Test mit dem Befehl t.test durch, übergeben die Sonneneinstrahlungsvariable und geben die Nullhypothese als mu = 175 an. Zusätzlich müssen wir die einseitige Alternativhypothese mit dem Argument alternative = „größer“ angeben . Der Befehl t.test liefert uns den Stichprobenmittelwert, die t-Statistik und den p-Wert. Der Stichprobenmittelwert beträgt 185,9 und die berechnete t-Statistik beträgt 1,47, was zu einem p-Wert von 0,07 führt. Mit einem p-Wert von 0,07 haben wir keine zwingenden Beweise für die Behauptung, dass die mittlere Sonneneinstrahlung in New York über 175 Langleys liegt, was der Schwellenwert ist, der den Kauf der Solaranlage rechtfertigt. Daher sollten wir davon absehen, Schlussfolgerungen zu ziehen, und es sind weitere Studien erforderlich, um die mittlere Sonneneinstrahlung genau zu bestimmen.

Zusammenfassend lässt sich sagen, dass das Testen von Hypothesen mithilfe des t-Tests es uns ermöglicht, die Plausibilität von Behauptungen oder Hypothesen anhand von Stichprobendaten zu bewerten. Indem wir die Null- und Alternativhypothese angeben, den Test durchführen und den resultierenden p-Wert untersuchen, können wir fundierte Entscheidungen über die Annahme oder Ablehnung von Hypothesen treffen. Die Visualisierung der Daten durch Histogramme oder andere Grafiken kann während der Analyse zusätzliche Erkenntnisse liefern.

 

Hypothesentest für Proportionen


Hypothesentest für Proportionen

Hallo an alle! Heute werden wir unsere Untersuchung des Hypothesentests fortsetzen und uns diesmal auf Proportionen konzentrieren. Wir nähern uns diesem Thema, indem wir ein Beispiel untersuchen, um die Schlüsselkonzepte zu verstehen.

Lassen Sie uns gleich eintauchen. Ein Kommentator behauptet, dass 30 % der Sechsjährigen in den Vereinigten Staaten einen Zinkmangel haben. Wir möchten diese Behauptung bewerten, indem wir eine Stichprobe sammeln und einen Hypothesentest mit einem Signifikanzniveau von α = 0,05 durchführen. Zur weiteren Untersuchung sammeln wir Daten, indem wir 36 Sechsjährige befragen und stellen fest, dass 5 von ihnen einen Zinkmangel haben, was weniger als 30 % beträgt. Wir müssen jedoch feststellen, ob dieser Unterschied allein auf den Zufall zurückzuführen ist. Unsere Hauptfrage lautet: Wie unwahrscheinlich ist es, eine solche Probe zu erhalten?

Um diese Frage zu beantworten, vergleichen wir den von uns erhaltenen Stichprobenanteil (P-hat) (5 von 36) mit dem unter der Nullhypothese beanspruchten Anteil. Bezeichnen wir den Bevölkerungsanteil als P₀ oder P-Null. Unsere Nullhypothese geht davon aus, dass der Bevölkerungsanteil 0,30 (30 %) beträgt. Die Alternativhypothese lautet in diesem Fall einfach, dass der Bevölkerungsanteil nicht gleich 0,30 ist. Wir haben keinen konkreten Grund zu der Annahme, dass er größer oder kleiner als 30 % ist, daher ziehen wir beide Möglichkeiten in Betracht. Standardmäßig entscheiden wir uns für eine zweiseitige Alternative, es sei denn, es gibt einen zwingenden Grund für eine einseitige Alternative.

Der von uns berechnete Stichprobenanteil (P-hat) beträgt 0,139 und liegt damit deutlich unter 30 %. Aber ist dieser Unterschied statistisch signifikant? Um dies zu bewerten, analysieren wir die Stichprobenverteilung von P-hat. Wir stellen uns vor, wiederholt Proben gleicher Größe zu entnehmen und jedes Mal den Anteil der Zinkmängel zu berechnen. Unter der Annahme, dass die Stichprobengröße (n) groß ist (was hier bei n = 36 der Fall ist), weist die Stichprobenverteilung eine glockenförmige Kurve auf. Wir können sein Zentrum und seine Ausbreitung bestimmen. Der Mittelwert des Stichprobenanteils (P-hat) entspricht dem Bevölkerungsanteil (P), während die Standardabweichung von P-hat der Quadratwurzel von P(1-P)/n entspricht. Wenn Sie eine detailliertere Erklärung benötigen, empfehle ich Ihnen, sich mein Video zu Konfidenzintervallen für Proportionen anzusehen.

Da wir nun wissen, dass die Stichprobenverteilung einer glockenförmigen Kurve mit bekanntem Mittelwert und bekannter Standardabweichung folgt, können wir einen Z-Score berechnen. Wir berechnen die Differenz zwischen dem beobachteten Wert (P-hat) und dem erwarteten Wert (P-naught) und dividieren ihn durch die Standardabweichung. Das Einsetzen der Werte (P-hat = 0,139, P-naught = 0,30, n = 36) ergibt einen Z-Score von -2,11.

Um die Wahrscheinlichkeit abzuschätzen, einen P-Hat zu erhalten, der so extrem ist wie der von uns beobachtete (oder sogar noch extremer), untersuchen wir die entsprechenden Z-Scores. In diesem Fall interessiert uns die Wahrscheinlichkeit, einen Z-Score von weniger als -2,11 oder mehr als 2,11 zu erhalten. Wir können dies berechnen, indem wir die kumulative Verteilungsfunktion (CDF) der Standardnormalverteilung auswerten. Mithilfe von Statistiksoftware oder Web-Apps stellen wir fest, dass die Wahrscheinlichkeit, einen Z-Score von weniger als -2,11 zu erhalten, bei etwa 0,017 liegt. Da wir jedoch beide Enden der Verteilung berücksichtigen, müssen wir diesen Wert verdoppeln, was zu einem p-Wert von etwa 0,035 führt.

Wenn wir den p-Wert mit unserem gewählten Signifikanzniveau (α = 0,05) vergleichen, stellen wir fest, dass der p-Wert kleiner als α ist. Daher lehnen wir die Nullhypothese ab und kommen zu dem Schluss, dass die Behauptung des Kommentators wahrscheinlich falsch ist. Der Anteil der Sechsjährigen in den Vereinigten Staaten mit Zinkmangel beträgt nicht 30 %.

Wenn es um die Stichprobengröße und die Normalnäherung geht, sind einige Faustregeln zu beachten. Die Normalnäherung funktioniert in der Regel gut, wenn die Stichprobe mindestens fünf Erfolge und fünf Misserfolge aufweist. Mathematisch bedeutet dies, dass das Produkt aus Stichprobengröße (n) und Stichprobenanteil (P) größer oder gleich fünf sein sollte, ebenso wie das Produkt aus Stichprobengröße (n) und dem Komplement des Stichprobenanteils (1-P) sollte ebenfalls größer oder gleich fünf sein.

In unserem Fall hatten wir eine Stichprobengröße von 36 und einen Stichprobenanteil (P-hat) von 0,139, was die Bedingungen für die Normalnäherung erfüllt. Daher können wir uns für unsere statistischen Schlussfolgerungen getrost auf die Normalverteilung verlassen.

Es ist auch erwähnenswert, dass im Allgemeinen größere Stichprobengrößen mit der Normalnäherung tendenziell bessere Ergebnisse liefern. Mit zunehmender Stichprobengröße wird die Normalverteilung zu einer genaueren Darstellung der Stichprobenverteilung von P-hat.

Zusammenfassend können wir also den Schluss ziehen, dass die Stichprobengröße von 36 in unserem Beispiel groß genug ist, um die Normalnäherung bei unseren Hypothesentests zu verwenden.

Ich hoffe, dass dies die Rolle der Stichprobengröße in der Normalnäherung verdeutlicht und eine umfassende Erklärung des Hypothesentestprozesses für Proportionen liefert.

 

Hypothesentest für Proportionen: Beispiel


Hypothesentest für Proportionen: Beispiel

Hallo an alle! Heute arbeiten wir an einem Beispiel eines Hypothesentests für Proportionen. Lassen Sie uns in das Problem eintauchen. Eine Universität gibt an, dass 65 % ihrer Studenten innerhalb von vier Jahren oder weniger ihren Abschluss machen. Allerdings bestehen Zweifel an der Richtigkeit dieser Behauptung. Zur weiteren Untersuchung wird eine einfache Zufallsstichprobe von 120 Studierenden gezogen und es stellt sich heraus, dass nur 68 der 120 Studierenden innerhalb des vorgegebenen Zeitrahmens ihren Abschluss gemacht haben. Da dieser Anteil unter den behaupteten 65 % liegt, spricht er gegen die Behauptung der Universität. Die Frage ist nun, ob diese Beweise stark genug sind, um darauf hinzuweisen, dass die Behauptung unwahrscheinlich ist, oder ob sie auf einen Zufall zurückzuführen ist. Um dies zu ermitteln, berechnen wir einen p-Wert und treffen eine Entscheidung anhand eines Signifikanzniveaus (α) von 0,05.

Zunächst müssen wir die Null- und Alternativhypothese formulieren. Die Nullhypothese besagt, dass die Ergebnisse ausschließlich auf zufälligen Zufällen beruhen und dass der tatsächliche Anteil der Studierenden, die innerhalb von vier Jahren oder weniger ihren Abschluss machen, tatsächlich 0,65 beträgt. Andererseits legt die Alternativhypothese nahe, dass die Universität ihre Abschlussquote überschätzt und der Bevölkerungsanteil weniger als 0,65 beträgt. In diesem Fall ist eine einseitige Alternativhypothese angemessen, da wir ausschließlich an der Möglichkeit interessiert sind, dass die Abschlussquote unter 65 % liegt.

Unter der Annahme, dass die Nullhypothese wahr ist, können wir den zentralen Grenzwertsatz anwenden, der besagt, dass die Stichprobenverteilung des Anteils (P-hat) annähernd normal ist, wenn die Stichprobengröße (n) groß genug ist. Der Mittelwert dieser Verteilung ist gleich dem Populationsmittelwert (P), und die Standardabweichung ergibt sich aus der Quadratwurzel aus P mal 1 minus P dividiert durch n. Da wir in unserem Fall davon ausgegangen sind, dass die Nullhypothese wahr ist, beträgt der Bevölkerungsanteil (P) 0,65.

Berechnen wir nun den Z-Score, um die Wahrscheinlichkeit zu bestimmen, dass allein durch Zufall ein Ergebnis erzielt wird, das genauso extrem oder noch extremer ist als der beobachtete Anteil. Wenn wir die Werte einsetzen, finden wir einen Z-Score von -1,91. Um die mit diesem Z-Score verbundene Wahrscheinlichkeit zu ermitteln, die die Wahrscheinlichkeit darstellt, einen Anteil zu erhalten, der kleiner oder gleich dem beobachteten ist, verwenden wir die kumulative Normalverteilungsfunktion (CDF). Dies kann mithilfe verschiedener Tools wie Tabellen, Web-Apps oder Statistiksoftware erfolgen. In R beispielsweise liefert der Befehl „Pnorm(-1.91)“ einen Wert von 0,028.

Wenn wir diesen p-Wert mit dem Signifikanzniveau (α) von 0,05 vergleichen, stellen wir fest, dass der p-Wert kleiner als α ist. Daher lehnen wir die Nullhypothese ab, was darauf hinweist, dass die Schlussfolgerung berechtigt ist, dass die Universität ihre vierjährige Abschlussquote überschätzt hat.

 

Einführung in Streudiagramme


Einführung in Streudiagramme

Hallo an alle! Heute beschäftigen wir uns mit Streudiagrammen, bei denen es sich um visuelle Darstellungen von Daten handelt, die mehrere gleichzeitig erfasste Variablen umfassen. Streudiagramme sind von entscheidender Bedeutung, da sie häufig in realen Datenerfassungsszenarien auftreten. Oft sammeln wir mehr als eine Information. Beispielsweise verfügen wir möglicherweise über SAT-Mathe- und verbale Ergebnisse für eine Gruppe von Studenten, über die Größe und das Gewicht von Personen in einer medizinischen Studie oder über Daten zur Motorgröße und zum Benzinverbrauch verschiedener Autos. In jedem Fall sind die Daten gepaart, d. h. jeder Wert einer Variablen entspricht einem bestimmten Wert der anderen Variablen, wodurch eine Eins-zu-eins-Beziehung entsteht. Wenn solche gepaarten Daten vorhanden sind, können wir Streudiagramme erstellen.

Betrachten wir ein Beispiel anhand einer Tabelle. Jede Spalte in der Tabelle stellt einen naturwissenschaftlichen oder technischen Bereich dar, wobei die Zahl oben die Anzahl der im Jahr 2005 an Frauen in diesem Bereich verliehenen Doktortitel angibt und die Zahl unten die Anzahl der im selben Jahr an Männer verliehenen Doktortitel angibt. Durch die grafische Darstellung dieser Daten, bei denen die Doktortitel von Frauen durch die x-Werte und die Doktortitel von Männern durch die y-Werte dargestellt werden, erhalten wir eine Reihe von Punkten. Einige Punkte sind beschriftet, z. B. (2168, 2227), was der zweiten Datenspalte in der Tabelle entspricht. Es handelt sich um einen wissenschaftlichen Bereich, in dem im Jahr 2005 2168 Doktortitel an Frauen und 2227 an Männer verliehen wurden.

Bei der Untersuchung von Streudiagrammen ist es wichtig, diese qualitativ zu beschreiben. In diesem Beispiel beobachten wir einen allgemeinen Abwärtstrend in den Daten, obwohl es Fälle gibt, in denen die Werte steigen, wenn wir uns von links nach rechts bewegen. Insgesamt tendiert die Form der Daten dazu, nach unten zu neigen, was auf einen negativen Zusammenhang zwischen den beiden Variablen hinweist. Es ist jedoch wichtig zu beachten, dass wir den Begriff „negative Korrelation“ nicht verwenden sollten, es sei denn, der Zusammenhang ist linear, was bedeutet, dass der Graph einer geraden Linie folgt. In diesem Fall weisen die Daten keinen linearen Zusammenhang auf.

Ein weiterer bemerkenswerter Aspekt dieser Darstellung ist der Ausreißer in der oberen rechten Ecke. Ausreißer können in verschiedene Kategorien fallen, z. B. Dateneingabefehler, ungewöhnliche Fälle, die sich auf die Analyse auswirken, oder interessante Phänomene, die einer weiteren Untersuchung bedürfen. Abschließend ist es wichtig zu überlegen, welche Variable auf der horizontalen Achse und welche auf der vertikalen Achse platziert werden soll. Wenn eine Variable in einer Studie auf natürliche Weise die andere erklärt oder beeinflusst, sollte sie als erklärende Variable auf der horizontalen Achse platziert werden. Umgekehrt sollte die Variable, die erklärt oder beeinflusst wird, als Antwortvariable auf der vertikalen Achse stehen. Im Beispiel des Kraftstoffverbrauchs ist es beispielsweise sinnvoll, den Kilometerstand als durch die Motorgröße (Hubraum) erklärt zu betrachten, daher platzieren wir den Kilometerstand auf der vertikalen Achse. Diese Wahl kann jedoch mit einer gewissen Subjektivität verbunden sein und je nach Kontext der Studie kann es zu Szenarien kommen, in denen die Rollen vertauscht sind.

 

Streudiagramme und Korrelation


Streudiagramme und Korrelation

Hallo an alle! Heute geben wir eine kurze Einführung in die Korrelation. Wir werden dieses Thema in nur drei Minuten behandeln. Lass uns anfangen!

Wenn wir ein Streudiagramm untersuchen, beobachten wir manchmal eine lineare Beziehung, bei der die Daten ungefähr einer geraden Linie folgen. In solchen Fällen können wir die Korrelation zwischen den Variablen diskutieren. Es ist jedoch wichtig, der Versuchung zu widerstehen, den Begriff „Korrelation“ zu verwenden, wenn Variablen in einer anderen als einer linearen Beziehung zueinander stehen. Korrelationen können schwach oder stark sein und können positiv oder negativ sein.

Eine positive Korrelation bedeutet, dass sich die allgemeine Form der Datenpunkte nach oben neigt, wenn wir uns im Diagramm von links nach rechts bewegen. Umgekehrt bedeutet eine negative Korrelation, dass die allgemeine Form der Datenpunkte beim Lesen von links nach rechts abnimmt. Stärkere Korrelationen zeichnen sich dadurch aus, dass sich Datenpunkte enger um die gedachte Linie gruppieren, während schwächere Korrelationen stärker verstreute Datenpunkte anzeigen.

Um die Korrelation zu quantifizieren, verwenden wir eine Statistik namens Korrelationskoeffizient (oft als „r“ bezeichnet). Er liegt zwischen -1 und 1. Werte näher bei 0 weisen auf bewölktere oder stärker verteilte Daten hin. In den bereitgestellten Beispielen stellt eine Korrelation von 0,4 oder -0,4 eine moderate Korrelation dar, während 0,9 oder -0,9 eine stärkere Korrelation bedeutet. Eine Korrelation von 1 oder -1 weist auf eine perfekte lineare Beziehung hin, bei der alle Datenpunkte genau auf der Linie liegen.

Es ist wichtig zu beachten, dass der Korrelationskoeffizient „r“ nicht mit der Steigung der Linie verwechselt werden sollte. Das Vorzeichen von „r“ gibt an, ob die Steigung positiv oder negativ ist, aber „r“ selbst stellt die Steigung nicht speziell dar. Stattdessen spiegelt der Korrelationskoeffizient wider, wie weit die Daten von der Linie entfernt sind, die vermutlich durch die Mitte der Daten verläuft.

Wenn Variablen keinen linearen Zusammenhang aufweisen, spricht man von unkorrelierten Variablen. Seien Sie in solchen Fällen vorsichtig bei der Interpretation des Korrelationskoeffizienten. Selbst wenn ein klarer Zusammenhang zwischen den Variablen besteht, wie etwa bei einer Parabelform, würde die Berechnung der Korrelation einen Wert nahe Null ergeben.

Lassen Sie uns nun die Berechnung der Korrelation besprechen. Kurz gesagt, es wird nicht empfohlen, es manuell zu berechnen. Glücklicherweise verfügen wir über Tools wie Softwarepakete, die uns helfen. In R lautet der Befehl beispielsweise „cor“. Durch die Angabe der X- und Y-Werte (der beiden Variablen, die wir korrelieren möchten) können wir sofort den Korrelationskoeffizienten erhalten. Wenn wir in der gegebenen Tabelle die erste Zeile als X und die zweite Zeile als Y zuweisen, können wir einfach den Befehl „cor(X, Y)“ verwenden, um den Korrelationswert zu erhalten. In diesem Beispiel erhalten wir eine Korrelation von 0,787, was auf eine mäßig positive Korrelation hinweist.