Parametrische Testverfahren
Unter dem Begriff der parametrischen Testverfahren werden alle inferenzstatistischen Tests zusammengefasst, die eine Verteilung, meist eine Normalverteilung, des untersuchten Merkmals voraussetzen und welche die Signifikanzprüfung der statistische Kennwerte anhand dieser theoretischen Verteilung durchführen.
Beispiele von parametrischen Testverfahren sind t Zests und z Tests
Vorraussetzungen für einen z-Test
Der z-Test setzt eine Stichprobengröße von mindestens 30 (manchmal auch <100, wenn konservativer) Personen voraus.
Die Personen der Stichprobe müssen Elemente einer Zufallsstichprobe sein.
Das untersuchte Merkmal muss sowohl mindestens intervallskaliert als auch normalverteilt sein.
z Test, was wird berechnet + Formel
Der z-Test dient zum Vergleich des Mittelwerts einer Stichprobe mit einem bekannten Populationsmittelwert.
Entstammt eine vorhandene Stichprobe der zugrunde gelegten Population (= keine signifikante Mittelwertsdifferenz)
oder eben nicht (= signifikante Mittelwertsdifferenz).
Umgang mit Ergebnissen von z Tests
Ist der Betrag eines berechneten z-Werts größer als der kritische z-Wert, folgt Ablehnung der Nullhypothese.
Als Folge wird die H1 angenommen. ->Der Stichprobenmittelwert entstammt nicht der vorliegenden Population.
Ist der Zwerg kleiner als der kritische zWert wird H0 beibehalten
Kritischer Wert:
Bei gerichteten Hypothesen (Alpha Niveau 5%; Fläche 0.95) z=1.645 ACHTUNG AUF RICHTIGE RICHTUNG
Bei umgerichteter Hypothese bei 97,5% ablesen z=1.96 bzw. -1.96
Voraussetzung t-Test für eine Stichprobe
Der t-Test für eine Stichprobe kann ebenfalls nur bei einer Zufallsstichprobe eingesetzt werden. Das untersuchte Merkmal muss auch hier mindestens intervallskaliert und normalverteilt sein.
Wird für kleine Stichproben verwendet
t Test
Einordnung des Ergebnisses: df= N-1 in der Zeile bei entweder 0,95 bzw. 0,975 schauen. Ist das Ergebnis größer als der dort aufgelistete kritische Wert, wird die Nullgypothese verworfen
Voraussetzungen für einen t-Test bei abhängigen Stichproben
Abhängige Stichproben:
Zwei Stichproben werden als abhängig bezeichnet, wenn die Ziehung eines Merkmalsträgers in die erste Stichprobe die Zugehörigkeit eines Merkmalsträgers zur zweiten Stichprobe beeinflusst beziehungsweise vorgibt. (Zb. Befragungen an mehreren aneinanderfolgenden Terminen)
Mindestens intervallskalierte Variablen in Messpaaren
Die Differenzen der Messwertpaare in der Grundgesamtheit sollten normalverteilt sein.
T-Test abhängige Stichproben
Erst Streuung der Differenzen berechnen und dann den dazugehörigen t Wert
Was muss vor dem t-Test von unabhängigen Stichproben erkannt werden
normalverteilung
Varianzhomogenität (F Test)
Varianz ist hier immer die höhere Varianz -> homogenität darf nicht negativ sein
Freihietsgrad, um kritischen Wert in der Tabelle zu finden
für gerichtete Hypothesen
Ein hoher F-Wert spricht in Abhängigkeit von den jeweiligen Freiheitsgraden für Varianzheterogenität.
wird relativ schnell signifikant
Bild f Test Formel
Je nach Ergebnis wird entweder der t - Test für homogene oder heterogene Varianzen benutzt
Voraussetzungen t-Zest für homogene Varianz
Der t-Test bei homogenen Varianzen dient der Prüfung von Mittelwertsdifferenzen zweier unabhängiger Stichproben.
Dieser t-Test kann berechnet werden, wenn ein mindestens intervallskaliertes Merkmal in zwei unabhängigen Zufallsstichproben erhoben wurde. Die Varianzen in beiden Stichproben müssen homogen sein.
T Test für homogene Varianz
Kritischer Wert in der Tabelle findet man bei df von beiden addiert
Ist der Wert weiter weg von der Null als der kritische tWert aus der Tabelle -> signikant -> H0 wird verworfen und H1 wird angenommen
Voraussetzungen t-Test heterogene Varianz
Dieser t-Test wird durchgeführt, wenn ein mindestens intervallskaliertes Merkmal in zwei unabhängigen Zufallsstichproben erhoben wurde. Die Varianzen dieser beiden Stichproben müssen nicht homogen sein.
t-Test heterogene Varianzen
Vorteil: deutlich konservative Schätzung, ist langsamer signifikant und somit resistenter gegenüber Ausreißern
Für die Berechnung von df muss man zunächst den c Wert berechnen -> korrigierter Freiheitsgrad
Effektgrößen
Diese Effektgröße erlaubt eine Bewertung der Effekte unabhängig vom verwendeten Messinstrument. Auch können nach Cohen (1988) diese Effekte folgendermaßen eingeteilt werden:
0.20 = kleiner Effekt
0.50 = mittlerer Effekt
0.80 = großer Effekt
Wird je nach Kontext anders interpretiert (zb in der klinischen Psychologie)
Zeigt Verhältnis von Mittelwertsdifferenz und Stichprobengröße, (statistische Bedeutsamkeit)
Zuletzt geändertvor einem Jahr