Inferenzstatistik
Definition
anderer Name: schließende Statistik
Ziel: von Stichprobendaten auf Sachverhalte in einer zugrunde liegenden Population schließen
Nullhypothesentest nach Fisher
Behauptung
Hypothese
p-Wert
Signifikanz
Behauptung:
es gibt in Wirklichkeit keinen Effekt/ Zusammenhang
das Ergebnis ist nur durch Zufall zustande gekommen -> Nullhypothese
Hypothese:
Nullhypothese wird formuliert
𝜇: Mittelwert der hypothetischen Population, die Veränderung zeigt
𝜇0: Mittelwert der Population die keine Veränderung hat
p-Wert:
bedingte WK
WK ein empirisches Ergebnis o. ein noch stärker gegen die Nullhypothese sprechendes Ergebnis zu finden unter der Annahme, dass die Nullhypothese wahr ist
Signifikanz:
Testergebnis ist signifikant (=statistisch bedeutsam) wenn der p-Wert kleiner o. gleich einer bestimmten Grenze ist
Signifikanzniveau= Grenze ab der Ergebnis als signifikant bezeichnet wird (meist bei 5%)
Hypothesentest nach Neyman und Pearson
statistische Entscheidung
Nullhypothese H0
Alternativhypothese H1
schließen sich gegenseitig aus, aber müssen so formuliert sein, dass man immer eine zutrifft
statistische Entscheidung:
binäres Testkonzept: man entscheidet sich immer entweder für die H0 oder die H1
Entscheidung kann richtig oder falsch sein
korrekte Entscheidung
Teststärke/ Power: 1-β
WK für H1 wenn H1 gilt -> WK einen existierenden Effekt nachweisen zu können
wichtig um Stichprobengröße vorher bestimmen zu können
Fehler erster Art: α-Fehler (α-Niveau)
a priori festgelegt, meist auf 5%
entspricht dem Signifikanzniveau nach Fisher
Fehler zweiter Art: β-Fehler
festgelegt, wenn Alternativhypothese u. α festgelegt sind
Vierfeldertafel: Darstellung der statistischen Entscheidungen
nkliboihoi
ein- vs zweiseitiges Testen
einseitiges Testen: gerichtete Hypothese
Aussage über Richtung des Effekts/ Zusammenhangs
zweiseitiges Testen: ungerichtete Hypothese
keine Aussage zur Richtung des Effekts/ Zusammenhangs
wenn die zweiseitige Testung signifikant wird, ist auch das einseitige Testen signifikant
Wovon hängt die Teststärke/ Power ab?
vom Effekt
Unterschied zwischen H0 und H1: 𝜀 = 𝜇1 − 𝜇0
je größer der Unterschied desto höher die Power (die Verteilungen liegen weiter auseinander, deswegen ist die WK sich falsch zu entscheiden geringer)
vom Signifikanzniveau α
je höher das Signifikanzniveau desto größer die Power
denn der kritische Wert rutscht weiter nach links
von der Art des Testens
ein- vs. zweiseitig
durch zweiseitiges Testen hat man geringere Power, denn durch α/2 hat man kleineres Signifkanzniveau u. dadurch rutscht der kritische Wert weiter nach links
von der Streuung der Populationsverteilung
je kleiner die Streuung desto höher die Power
denn die Verteilungen werden schmaler u. überschneiden sich dadurch weniger, dadurch ist die WK für eine falsche Entscheidung geringer
von der Stichprobengröße
je größer die Stichprobe gesto kleiner die Streuung desto größer die Power
Stichprobe zu klein: H0 wird nicht verworfen, obwohl die H1 gelten könnte
Stichprobe zu groß: H0 wird verworfen (Text wird signifikant), aber H1 muss nicht unbedingt gelten
Effektgröße/ Effektstärke
Problem: die Mittelwertsdifferenz 𝜀 = 𝜇1 − 𝜇0 ist nicht über verschiedene Studien vergleichbar (könnten andere Streuung o. maximal zu erreichende Punkte haben)
Lösung von Jacob Cohen:
Relativierung der Mittelwertsdifferenz an der Standardabweichung
Wertebereich von Cohens 𝛿: −∞ bis +∞
Interpretation der Werte
𝛿 = 1: Mittelwert der Population 𝜇1 ist eine Standardabweichung höher als die von 𝜇0
Stichprobenkennwerteverteilung
Wie entsteht sie? Erklärung
aus einer Population wird wiederholt eine Stichprobe gezogen
eine Statistik wird berechnet d.h. in jeder Stichprobe wird ein Kennwert ermittelt z.B. das arithemtische Mittel
in der Stichprobenkennwerteverteilung werden die Ergebnisse der Kennwerte der unterschiedlichen Stichproben dargestellt
konvergiert gegen die Normalverteilung
CAVE: jeder Stichprobenwert ist mit einem stichprobenspezifischen Fehler behaftet -> zufälliger Schätzfehler (nicht verwechseln mit Standardfehler, dieser bezieht sich auf die gesamte Stichprobenkennwerteverteilung und nicht auf eine einzelne Stichprobe)
je größer die Stichprobe, desto besser schätzt der Kennwert den Kennwert in der Population
wenn man eine Stichprobe zieht, die genauso groß ist wie die Population, ist der Schätzwert= 0
Kennwerte und Standardfehler
auch für die Stichprobenkennwerteverteilung kann man Mittelwert u. Standardabweichung bestimmen
arithmetisches Mittel
je größer das N, desto mehr nähert sich der Stichprobenmittelwert dem Populationsmittelwert an
-> erwartungsgetreuer Schätzer
Standardabweichung
je größer das N desto weniger streuen die Stichprobenmittelwerte -> die Standardabweichung der Stichprobenmittelwerte wird kleiner (konvergiert gegen 0)
-> kein erwartungsgetreuer Schätzer (denn die Varianz konvergiert gegen 0 u. nicht gegen die Varianz der Population)
Standardfehler
Standardabweichung der Stichprobenkennwerteverteilung von der Population
je kleiner der Standardfehler, desto präziser schätzt der Stichprobenkennwert den Populationsparameter
für jeden Kennwert gibt es eine Formel für den Standardfehler
Bsp: Standardfehler für den Mittelwert
gibt Aussage darüber wie gut der empirisch erhobene Mittelwert den tatsächlichen Populationsmittelwert schätzt
Standardfehler gibt die Varianz der Mittelwerte in der Stichprobe an
Erwartungstreue
Schätzer für Populationswerte
Erklärung
Kriterien
Varianz
μ und σ der Population sind nicht bekannt
Verwendung der Kennwerte der Stichprobe als Schätzer für die Populationswerte
Kritierien zur Beurteilung von Schätzern
z.B. Erwartungstreue
die Populationsvarianz wird durch die Stichprobenvarianz unterschätzt -> Unterschätzung wird in der Formel für die Populationsvarianz korrigiert
Prüfung auf Signifikanz
bei N>1
benötigt die Kennwerte der Stichprobenkennwerteverteilung
Transformation in standardnormalverteilte Variable
WK in Tabelle der Verteilungsfunktion der Standardnormalverteilung nachschlagen
N=1
Mittelwert der normalverteilten stetigen Zufallsvariable (also dem Populationsmittelwert)
Standardabweichung der normalverteilten stetigen Zufallsvariablen (acuh von der Population)
Zuletzt geändertvor einem Jahr