Inferenzstatistik
= Schließende Statistik
Einführendes Schließende Statistik
Bis hierher: Beschreibende Statistik. Alle berechneten Maßzahlen (Lage- und Streumaße; Zusammenhangsmaße) sagen etwas über die Stichprobe aus - und nur über die Stichprobe
Schließende Statistik/Inferenzstatistik: Ermöglicht Schlussfolgerungen von der Stichprobe auf die Grundgesamtheit
Quantifizierung des Fehlerniveaus/der Irrtumswahrscheinlichkeit
Quantifizierung der Verallgemeinerbarkeit von Ergebnissen
Definition Inferenzstatistik
“Die Inferenzstatistik oder schließende Statistik prüft bzw. formuliert Aussagen über Gesamtheiten auf der Basis von Stichproben. Formen des statistischen Schließens sind das Schätzen und das Testen.“(Diaz-Bone, 2018:133)
wir nutzen also kleine Mengen von Daten (Stichproben) as einer großen Menge von Daten (Grundgesamtheit), um über diese große Menge von Daten Aussagen zu machen
Aussagen
Schätzen von Parametern der Grundgesamtheit, z.B. Mittelwert
Testen von Hypothesen, z.B. zur Existen von Zusammenhängen zwischen zwei Variablen wie Geschlecht und Einkommen
Grundidee der Inferenzstatistik am Bsp. Mittelwertschätzung
Beispiel Studiengangsverteilung in Vorlesung
Zufallsvariablen & theoretische Verteilungen
Ausgangsproblem
Können die Stichproben-Ergebnisse auf die Grundgesamtheit verallgemeinert werden?
Vorausetzung:
Einfache Zufallsauswahl
Bei anderen Stichprobenverfahren gleiches Prinzip, aber komplizierter
Wiederholung: Einfache Zufallsauswahl
Die Auswahl erfolgt nach dem Zufallsprinzip
Aus einer Grundgesamtheit mit N Elementen werden n Elemente so gezogen, dass jedes Element n die gleiche Wahrscheinlichkeit p hat gezogen zu werden
Vorteile:
Rückschlüsse auf die Grundgesamtheit möglich
Ausfallanalysen möglich
Inferenzstatistik möglich
Die Bedeutung des Zufalls
Die Inferenzstatistik basiert auf den Annahmen des Zufallsexperimentes, z.B.
a) Münzwurf
b)Würfelwurf
c) Urneziehung
Das Ergebnis eines Zufallsexperiments wird als Zufallsvariable bezeichnet
a) Häufigkeit „Zahl“ zu werfen
b) Durchschnittliche Augenzahl beim Würfeln
c) Häufigkeit die Zahl „49“ zu ziehen
Beispiel: Würfeln mit einem Würfel
bei jedem Wurf ist die Wahrscheinlichkeit für jede Augenzahl gleich, nämlich 1/6 = 0.16667
theoretisch würden wir also eine Gleichverteilung erwarten, d.h. jede Zahl wird gleich häufig geworfen
empirisch ist es dennoch unwahrscheinlich, bei 6 Würfen genau jeweils einmal jede Augenzahl zu würfeln
bei 100 Würfen würden wir schon eher erwarten, dass jede Augenzahl nicht zu weit von 16 oder17 abweicht
bei 10.000 Würfen sollte jede Augenzahl rund 1666 gewürfelt worden sein, sonst scheint der Würfel ein Problem zu haben
Gesetz der großen Zahlen (Bernoulli-Theorem)
„Das Gesetz der großen Zahlen“
die (empirisch beobachtete) relative Häufigkeit eines Zufallsergebnisses stabilisiert sich normalerweise um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses
d.h. je mehr Würfelwürfe durchgeführt werden, desto näher kommt die (empirisch beobachtete) relative Häufigkeit an die theoretische Wahrscheinlichkeit
schließt Ausreißer nicht aus
Die Bedeutung des Zufalls – Beispie
Die (Standard-)Normalverteilung
a.k.a. Gauß‘sche Normalverteilung / Glockenkurve
Eigenschaften der Normalverteilung
Formel der Normalverteilung
Beispiele verschiedener Normalverteilungen
Nutzen der Normalverteilung
Die Normalverteilung und ihre Eigenschaften
Die Standardnormalverteilung Vereinfachung
Die (Standard-)Normalverteilung Beispiel: Standardisierung von Noten
Die (Standard-)Normalverteilung Beispiel: Vergleich Note und z-standardisierte Note
Die (Standard-)Normalverteilung Beispiel: Ablesen Quantile für z-Werte
Relevanz der (Standard-)Normalverteilung
z.T. sind Untersuchungsvariablen selbst normalverteilt (z.B. Körpergröße)
Die Eigenschaften der Standardnormalverteilung kann man sich zu Nutze machen, z.B. um Häufigkeiten und Intervalle zu bestimmen (s.o.)
=> ist aber eher selten, und für uns weniger wichtig, denn unabhängig von der Verteilung einer Variablen gilt (bei ausreichend großem n!) :
Stichprobenkennwerte der Variablen (z.B. Mittelwerte; Anteile) sind normalverteilt! (siehe Stichprobenverteilung)
das Nutzen wir dann zur Bildung von Konfidenzintervallen (s. Beispiel am Anfang) und zum Testen von Hypothesen
Zusammenfassung
Einführung in die Schließende Statistik
Zufallsvariablen
theoretische Verteilungen
Gesetz der großen Zahl => Annäherung empirischer an theoretische Verteilung
Normalverteilung
Standardnormalverteilung
Stichprobenverteilungen Definition
Unterscheidung zwischen Grundgesamtheit und Stichprobe(n) aus der Grundgesamtheit
Parameter der Grundgesamtheit i.d.R. unbekannt
drückt sich auch in Bezeichnung von Kennwerten aus
Ansatz Inferenzstatistik, um unbekannte Parameter zu ermitteln:
Ziehung von (unendlich) vielen Stichproben aus Grundgesamtheit und
Bestimmung von Stichprobenkennwerten (z.B. Mittelwert, Anteilswert)
Nutzung der Verteilung der Kennwerte zur Schätzung von Parametern GG
Verteilung der Kennwerte: Stichproben(kennwerte)verteilung
Stichprobenverteilung
Schließen von Stichprobe auf Grundgesamtheit
Grundannahme der Inferenzstatistik ist, dass bei
zufälliger Auswahl der Probanden
hinreichend großen Stichproben (n>= 30) und
hinreichend vielen Stichproben
der Großteil der Stichproben ähnliche Kennwerte wie in der Grundgesamtheit zeigen sollte (z.B. Durchschnittsalter, Anteil Frauen, etc)
Kennwert der Stichprobe entspricht nicht exakt dem Parameter der Grundgesamtheit, aber:
wenn ich die Stichprobenverteilung kennen würde, könnte ich Aussagen über die Grundgesamtheit machen
=> tatsächlich kennen wir die Verteilung der Stichprobenkennwerte (annähernd)…
zentraler Grenzwertsatz
Stichprobenverteilungen
Zentraler Grenzwertsatz (auch: zentrales Grenzwerttheorem): Die Summe voneinander unabhängiger Zufallsvariablen ist annähernd normalverteilt - unabhängig davon, wie die Zufallsvariablen selbst verteilt sind —>siehe Beispiel mit den 2 Würfeln!
Hintergrund zur Info: Theoretisch stellt jeder Fall in der Stichprobe (die Realisierung einer) Zufallsvariable dar => Summe (und entsprechend auch daraus abgeleitete Kennwerte wie der Mittelwert) sind normalverteilt
=> auch die Stichprobenmittelwerte sind annähernd normalverteilt
d.h. wenn wir viele Stichproben ziehen und immer den Mittelwert von X berechnen, dann folgt dieser einer Normalverteilung
Stichprobenverteilung ist eine Normalverteilung mit
Mittelwert 𝜇𝑥̅(Mittelwert in der GG)
Standardabweichung 𝜎𝑥̅=> Standardfehler (s. nächste Folie)
Der Standardfehler
die Mittelwerte meiner (vielen) Stichproben streuen um den Mittelwert der Grundgesamtheit (= Standardabweichung)
Standardabweichung der Strichprobenmittelwerte = Standardfehler
„Der Standardfehler 𝜎𝑥̅ gibt das erwartbare Ausmaß an, in dem die Stichprobenmittelwerte von dem Grundgesamtheitsmittelwert 𝜇 aus Zufallsgründen abweichen.“ (Diaz-Bone 2019:149)
Schätzen
wir versuchen auf Basis der berechenbaren Kennwerte der Stichprobe, die unbekannten Parameter der Grundgesamtheit zu schätzen => Repräsentationsschluss / Induktionsschluss
zwei Arten des Schätzen
Punktschätzung
„Bei der Punktschätzung errechnet man aus der Stichprobe einen Stichprobenkennwert und schätzt damit die entsprechende Maßzahl in der Grundgesamtheit. Der Stichprobenkennwert, mit dem die Schätzung erfolgt, heißt auch Schätzer.“ (Diaz-Bone 2019: 155)
Intervallschätzung:
„Bei einer Intervallschätzung wird ein Bereich angegeben, in dem mit einem bestimmten Vertrauen oder einer bestimmten Sicherheit der Grundgesamtheitswert liegt. Diese Intervalle nennt man Konfidenzintervalle.“ (Diaz-Bone 2019: 157)
Intervallschätzung
Konfidenzintervall
Vertrauens- / Signifikanzniveau
Beispiel Konfidenzintervalle
Gegeben ist eine Stichprobe, auf dessen Basis die folgenden folgende Werte für die Grundgesamtheit geschätzt wurden
𝜇̂= 1,9% Menschen mit roten Haaren (fiktives Beispiel!)
𝜎^ = 0,1365
um zu schätzen, in welchem Bereich der Mittelwert 𝜇 (=Anteil der Menschen mit roten Haaren) tatsächlich liegt, können wir uns jetzt unser Wissen über die Verteilung der Stichprobenmittelwerte zu Nutze machen
wenn wir aus dieser Grundgesamtheit zufällig eine Stichprobe ziehen, dann wird der Mittelwert unserer Stichprobe 𝑥̅ zufällig von 𝜇 abweichen.
und zwar um so mehr, je kleiner die Stichprobe ist
das 95-% Konfidenzintervall für den Mittelwert 𝜇𝜇 ergibt sich in Abhängigkeit von der Größe der Stichprobe
Beispiel: Berechnung Standardfehler
Beispiel: Konfidenzintervalle
Inferenzstatistik: Konfidenzintervalle
Anteil Studierende Transkulturalität in Vorlesung (39,5%)
Beispiel: Konfidenzintervall für Reproduktionszahl bei Corona-Infektionen
Hypothesenprüfung
Beispiel Münzwurf
Grundlagen/Begrifflichkeiten
Vorgehen
Beispiel: zweiseitiger Test; p ≤ 0,05
Hypothesentest
Münzwurf: Fehler beim Hypothesentest
Fehler bei der Hypothesenprüfung
Null- und Alternativhypothese formulieren
Irrtumswahrscheinlichkeit festlegen
Ablehnungsbereich der Nullhypothese kennzeichnen
Prüfgröße bestimmen
nur zur Information: t-Verteilungen nähert sich für n>30 der Standardnormalverteilung an
Bivariate Zusammenhangsmaße
Überblick
Mittelwertvergleich
Hypothesenprüfung: Zusammenhänge zwischen kategorialen Variablen
Beispiel Lineare Regression
noch ein Beispiel für Lineare Regression
Bericht von Irrtumswahrscheinlichkeit
Anmerkungen
Stichprobe und Grundgesamtheit
Bei einer Zufallsstichprobe hat jedes Mitglied der Grundgesamtheit (Population) die gleiche Wahrscheinlichkeit in die Stichprobe (Sample) zu gelangen
In diesem Fall können wir für die Befragten in der Stichprobe die gleichen Regeln anwenden wie für Zufallsexperimente wie Würfel-Würfe, Urnenziehungen, Münzwürfe etc.
Ein Beispiel für eine solche Regel: Das Gesetz der großen Zahl/Bernoulli-Theorem
Das Gesetz der großen Zahlen
“Die relative Häufigkeit eines Zufallsergebnisses stabilisiert sich normalerweise um die theoretische Wahrscheinlichkeit eines Zufallsergebnisses“ Was heißt das?
Wir wissen, dass beim Würfeln theoretisch jede Zahl die gleiche Wahrscheinlichkeit hat geworfen zu werden, bei einem Münzwurf hat sowohl Kopf als auch Zahl eine Wahrscheinlichkeit von 50%
Wenn ich nur 10 mal eine Münze werfe, bleiben aber nicht unbedingt zu exakt 50% Kopf und 50% Zahl liegen
Wenn ich 100 Mal werfe, komme ich dem Verhältnis von 50/50 schon näher
Wenn ich 1000 Mal werfe, werden meine relativen Häufigkeiten mit denen ich Kopf bzw. Zahl geworfen habe, dem theoretischen Verhältnis von 50/50 ziemlich genau entsprechen
Das nennt man auch: Das Gesetz der großen Zahl
Je häufiger ich ein Zufallsexperiment wiederhole, desto eher werden sich die relativen Häufigkeiten der theoretischen Häufigkeit angleichen
Und weil unsere Stichprobenziehung in einer Zufallsstichprobe auch ein Zufallsexperiment ist, gilt: “Bei zufälliger Auswahl der Probanden, hinreichend großen Stichproben und hinreichend vielen Stichproben sollte der Großteil der Stichproben ähnliche Kennwerte wie in der Grundgesamtheit zeigen (z.B. bzgl. Alter, Geschlecht etc.)”
Mittelwert der Mittelwerte berechnen
Wir haben 6 Stichproben aus der selben Grundgesamtheit gezogen und für jede das Durchschnittsalter berechnet
Wir haben gesehen, dass jede Stichprobe einen anderen Altersdurchschnitt hat, der mal mehr, mal weniger weit vom tatsächlichen Durchschnitt der Grundgesamtheit (𝜇) entfernt ist
Das Bernoulli-Theorem besagt: Wenn wir nun den Mittelwert dieser 6 Stichprobenmittelwerte berechnen, nähern wir uns dem wahren Ergebnis schon stärker an
Je mehr Stichproben wir ziehen und Mittelwerte wir berechnen (je häufiger wir das Experiment wiederholen), desto stärker wird sich der Mittelwert der Mittelwerte dem Mittelwert der Grundgesamtheit annähern
Stichprobenkennwerte sind normalverteilt
Wenn man das Experiment sehr oft wiederholt und alle diese Mittelwerte in ein Histogram übertragen würde, käme man zu der folgenden Verteilung
Die Stichprobenmittelwerte bilden eine Normalverteilung ab: Es gibt natürlich ein paar Ausreißer, also Stichproben in denen das durchschnittliche Alter sehr gering oder sehr hoch ausfällt, aber die meisten Stichproben haben einen sehr ähnlichen Mittelwert
Eigenschaften einer Normalverteilung
Diese Form der Verteilung nennt man Normalverteilung. Normalverteilungen haben bestimmte Eigenschaften
Sie sind eingipflig
Mittelwert, Modus und Median liegen beim gleichen Wert
Symmetrische Verteilung um den Mittelwert herum
Je weiter die Werte vom Mittelwert entfernt sind, desto stärker nähert sich die Häufigkeit 0 an
Wendepunkte bei +/- einer Standardabweichung
Fläche unter der Kurve bestimmten
Bei normalverteilten Variablen können wir bestimmen wie viel Prozent der Fälle sich innerhalb einer bestimmten Wertegrenze befinden
68,27 % der Werte liegen in einem Bereich von μ ± 1σ
95,45 % der Werte liegen in einem Bereich von μ ± 2σ
99,73 % der Werte liegen in einem Bereich von μ ± 3σ
Standardnormalverteilung und z-Standardisierung
Eine Spezielle Form der Normalverteilung ist die Standardnormalverteilung. Sie hat einen Mittelwert von 0 und eine Standardabweichung von 1
Jeder Wert einer Variable kann durch eine sogenannte z-Transformation in einen entsprechenden Wert der Standardnormalverteilung übersetzt werden, alles was man dazu braucht ist der Mittelwert der Variable und die Standardabweichung der Variable 𝑧 = 𝑥𝑖 − xstrich / s
Wofür z-Werte gut sind: Konfidenzintervalle
Mit Hilfe der z-Werte können wir auch Konfidenzintervalle berechnen.
Ein Konfidenzintervall gibt einen bestimmten Wertebereich an, in dem sich der Wert der Grundgesamtheit mit einer bestimmten Wahrscheinlichkeit befinden wird [Erinnerung: Wir wissen in der Regel nicht welcher Wert in der Grundgesamtheit vorliegt]
Statt zu sagen „8% würden die FDP wählen, wenn am nächsten Sonntag Bundestagswahl wäre“ kann man dann sagen „Mit einer Irrtumswahrscheinlichkeit von 5% liegt der Anteil der FDP-Wähler zwischen 8% und 11%
Unterschied Punkt- und Intervallschätzung
Punktschätzer werden mit einem Dach gekennzeichnet
Mit Punktschätzern benennen wir einen konkreten Wert, der den Wert in der Grundgesamtheit so gut wie möglich treffen soll
Eine Schätzung ist aber immer auch mit einer Unsicherheit belegt, wir wissen bei unserem Stichprobenmittelwert, ja zum Beispiel, dass dieser nicht zwingend dem Grundgesamtheitsmittelwert entspricht
Intervallschätzer, zum Beispiel Konfidenzintervalle, geben deswegen an in welchem Bereich ein gesuchter Wert mit einer bestimmten Wahrscheinlichkeit liegen wird – sie machen die Unsicherheit mit der eine Schätzung belegt ist deutlicher
Abweichung zwischen Stichprobe und Grundgesamtheit
Kurzer Recap: Jede Stichprobe kommt zu einem anderen Ergebnis, z.B.: hinsichtlich des Mittelwerts einer Variable
Die Ergebnisse vieler verschiedener Stichproben bilden eine Normalverteilung ab
Das heißt aber auch: Der Mittelwert in der Stichprobe die wir gezogen haben, muss nicht unbedingt dem Mittelwert der Grundgesamtheit entsprechen
Es gibt eine Abweichung des Stichprobenmittelwerts zum tatsächlichen Mittelwert in der Grundgesamtheit (unbekannt)
Das Ausmaß der Streuung der Mittelwerte aus vielen Stichproben rund um den Mittelwert der Grundgesamtheit wird durch den Standardfehler angegeben
Den Standardfehler des Mittelwerts erhält man, in dem man die Standardabweichung der Grundgesamtheit durch die Wurzel aus der Fallzahl teilt
(i.d.R ist die Standardabweichung in der Grundgesamtheit unbekannt, deswegen berechnen wir dafür zuerst einen Schätzwert – das muss uns an dieser Stelle aber erstmal nicht weiter stören) ☺
Je größer die Fallzahl ist, desto kleiner wird der Standardfehler und desto besser bildet unsere Stichprobe die Grundgesamtheit ab
Konfidenzintervalle
Bei einem Konfidenzintervall wird ein Bereich angegeben, indem der gesuchte Parameter der Grundgesamtheit vermutet wird (Intervallschätzer)
Konfidenzintervall: Innerhalb welcher Grenzen liegen bspw. 95% der Fläche?
Mit einer Wahrscheinlichkeit von 95% liegen die standardisierten Mittelwerte der Variable im Bereich zwischen −1,96 und +1,96
Hypothesentests
Bei Hypothesentest vergleichen wir einen aus der Stichprobe berechneten Wert (z.B.: t, z, F, Chi-Quadrat) mit einem theoretisch vorgegebenen Grenzw
Welchen Grenzwert wir auswählen, hängt davon ab ob wir einseitig oder zweiseitig testen und welche Irrtumswahrscheinlichkeit wir akzeptieren (5%, 1% oder 0,1%)
Wenn der tatsächliche Wert den Grenzwert übersteigt, ist das Ergebnis significant (bei einseitigem Test nach oben)
In der Praxis lassen wir Datenanalyseprogramme diese Arbeit für uns machen und schauen nur auf die Irrtumswahrscheinlichkeit (= den p-Wert) der uns bei Berechnungen ausgegeben wird. Ist dieser Wert kleiner als 0,05 heißt dass das das Ergebnis signifikant ist
Hypothesentests: Vorgehen
Irrtumswahrscheinlichkeit (a.k.a. Signifikanzniveau) festlegen
Prüfgröße bestimmen (z.B. z-Wert; t-Wert; Chi²-Wert)
Prüfgröße berechnen und Entscheidung über Nullhypothese treffen
Null- und Alternativhypothese
Zum Testen von Hypothesen hat man immer zwei Hypothesen: Eine Alternativhypothese (𝐻𝐴 𝑜𝑑𝑒𝑟 𝐻1), die aussagt wie wir den Zusammenhang annehmen
Z.B.: Frauen können besser mit Zahlen umgehen, als Männer
Eine Nullhypothese (𝐻0), die das Gegenteil behauptet:
Z.B.: Frauen und Männer können gleich gut mit Zahlen umgehen
Hypothesen können gerichtet oder ungerichtet sein.
Eine gerichtete Hypothese gibt an, welche Richtung der Zusammenhang annimmt, z.B.: “Verheiratete haben eine höhere Lebenszufriedenheit als Unverheiratete”.
Eine ungerichtete Hypothese geht nur davon aus, dass ein Zusammenhang oder Unterschied zwischen zwei Gruppen vorliegt, lässt aber die Richtung offen. Z.B.: “Studierenden und Auszubildende unterscheiden sich hinsichtlich Ihrer Lebenszufriedenheit”
Irrtumswahrscheinlichkeiten
“Alpha gibt daher die Wahrscheinlichkeit an, mit der wir uns bei Ablehnung der Nullhypothese irren (Irrtumswahrscheinlichkeit).“
Gebräuchliche, akzeptable Irrtumswahrscheinlichkeiten sind 5% (0,05), 1% (0,01) und 0,1% (0,001)
Diese werden in Tabellen oft mit Sternchen symbolisiert, 5% = *; 1% = **; 0,1%= ***
Es könnte sein, dass der Mittelwert/Anteilswert/Steigungskoeffizient/… unserer Stichprobe von dem der Grundgesamtheit substantiell abweicht, aber die Wahrscheinlichkeit, dass dies der Fall ist, ist kleiner als 5% / 1% / 0,1%
Welche Prüfgröße man wählt, hängt davon ab auf welchen Koeffizienten sich die Hypothese bezieht (Steigungskoeffizient, Mittelwertvergleich, Varianz, Prozentanteil, usw….)
Es gibt bestimmte Formeln, mit denen man uns bekannte Maßzahlen der Stichprobe (Mittelwerte, Prozentanteile, Kreuztabellen, …) in die jeweilige Prüfgröße transformieren kann. Zum Beispiel einen Mittelwert in einen z-Wert – siehe letzte Sitzung
Wie genau das fuktioniert ist in dieser Vorlesung nicht relevant, es reicht zu akzeptieren, dass das möglich ist
Diese Prüfgröße wird dann mit einem von uns festgeleten Grenzwert verglichen, daraus schließen wir ob der Zusammenhang/Unterschied signifikant ist oder nicht
Annahme- und Ablehnungsbereich
Wie der Annahme- und Ablehnungsbereich der Nullhypothese aussieht, hängt von der ausgewählten Irrtumswahrscheinlichkeit ab
Bei einem zweiseitigen Test und eine maximal akzeptablen Irrtumswahrscheinlichkeit von 5% werden oben und unten jeweils 2,5% der Fälle abgezogen
Die unteren und oberen 2,5% sind der Ablehnungsbereich der H0. Wenn das Ergebnis unserer Stichprobe in diesem Bereich liegt, können wir die H0 verwerfen und unsere Alternativhypothese annehmen
Wenn der Wert innerhalb der mittleren 95% liegt, liegt er im Annahmebereich der H0, das heißt wir können die H0 nicht verwerfen
Für z-Werte gibt es ganz bestimmte, immer gleiche Werte
Bei einem zweiseitigen Test liegt der kritische z-Wert bei +/- 1,96. Wenn ein aus der Stichprobe berechneter z-Wert größer als 1.96 ist oder Kleiner als -1,96, dann lehnen wir die H0 ab, nehmen die Alternativhypothese an und sprechen von einem signifikanten Ergebnis
Was ist der Unterschied zwischen der Standardabweichung und dem Standardfehler?
Standardfehler und Standardabweichung sind beides Maße für die Streuung, der Unterschied liegt darin wessen Streuung sie messen
Die Standardabweichung misst die durchschnittliche Abweichung der gemessenen Werte zum Mittelwert. Wenn Sie 50 Personen nach dem Einkommen gefragt haben und der Mittelwert bei 1200 liegt, dann beschreibt die Standardabweichung wie stark die Werte aller 50 Befragten um diesen Mittelwert herum streuen
Der Standardfehler beschreibt die Streuung von Stichprobenmittelwerten um den Mittelwert der Grundgesamtheit herum. Wenn Sie aus der selben Grundgesamt 100 Stichproben ziehen würden und für jede das Durchschnittseinkommen berechnen, dann streuen diese 100 Stichprobenmittelwerte. Diese Streuung messen wir mit dem Standardfehler
Wenn die Stichprobe größer wird, dann wird der Standardfehler kleiner
Eine Vervierfachung der Stichprobengröße führt zu einer Halbierung des Standardfehlers
Wie viel Prozent der Werte liegen zwischen den z-Werten -1,96 und +1,96?
5% Irrtumswahrscheinlichkeit
95% der Fälle liegen zwischen -1,96 und +1,96
2,5% liegen links von -1,96
2,5% liegen rechts von +1,96
Zwischen welchen z-Werten liegen 99% der Fälle?
1% Irrtumswahrscheinlichkeit
99% der Fälle liegen zwischen -2,58 und +2,58
0,5% liegen links von -2,58
0,5% liegen rechts von +2,58
Alpha-Fehler
Es könnte sein, dass Sie ausgerechnet eine dieser sehr seltenen Stichproben vorliegen haben. Sie verwerfen also die Nullhypothese, obwohl diese in der Grundgesamtheit gilt. Sie behaupten, dass es sehr wohl einen Unterschied in der Grundgesamtheit gibt, obwohl das nicht der Fall ist!
Diesen Fehler nennt man Alpha-Fehler oder Fehler 1. Art. Sie wissen genau wie groß die Wahrscheinlichkeit ist, dass ihnen dieser Fehler passiert: 5%.
Beta-Fehler
Andererseits könnte es auch passieren, dass Sie die Nullhypothese aufgrund Ihres
Hypothesentest beibehalten obwohl in der Grundgesamtheit die Alternativhypothese
gilt. Sie behaupten, dass es keinen Zusammenhang/Unterschied gibt, obwohl dies in
der Grundgesamtheit der Fall ist!
Wie groß die Wahrscheinlichkeit ist, dass Sie diesen Fehler begehen weiß man in der Regel nicht
Einseitiger oder zweiseitiger Test?
Bei gerichteten Hypothesen machen wir in der Regel einen einseitigen Test, wenn die Hypothese ist “Frauen können besser mit Zahlen umgehen als Männer”, testen wir nur, ob Frauen wirklich besser mit Zahlen umgehen können, nicht ob sie besser oder schlechter, also einfach anders als Männer mit Zahle umgehen können
Bei ungerichteten Hypothesen machen wir in der Regel einen zweiseitigen Test, wenn die Hypothese ist “Frauen und Männer unterscheiden sich hinsichtlich ihrer Fähigkeit mit Zahlen umzugehen” testen wir ob Frauen besser oder schlechter mit Zahlen umgehen können als Männer
Zuletzt geändertvor einem Jahr