Was ist der Unterschied zwischen der Standardabweichung der Population (σ) und der Stichprobenstandardabweichung (s)? Wann und warum spielt das eine Rolle für die Verteilung der Prüfgröße?
1. Standardabweichung der Population (σ)
σ ist ein fester Wert, der die tatsächliche Streuung aller Werte einer Grundgesamtheit beschreibt.
Sie ist ein Parameter der Population und wird in der Realität sehr selten gekannt.
Wenn σ bekannt ist, kann man mit der z-Verteilung arbeiten.
2. Standardabweichung der Stichprobe (s)
s ist ein Schätzwert für σ, basierend auf einer endlichen Stichprobe.
Sie ist eine Zufallsvariable: Jede Stichprobe ergibt einen leicht anderen Wert für s.
Da s σ nur schätzt, bringt diese Schätzung eine zusätzliche Unsicherheit mit sich.
Diese Unsicherheit wird durch die Verwendung der t-Verteilung berücksichtigt
Wann kann ein z-Test verwendet werden und welche Voraussetzung muss erfüllt sein?
Ein z-Test kann verwendet werden, wenn die Populationsstandardabweichung σ bekannt ist und/oder die Stichprobe „groß“ ist (meist: n ≥ 30). Die Prüfgröße folgt dann der Standardnormalverteilung N(0,1).
Was passiert, wenn die Populationsstandardabweichung σ nicht bekannt ist?
Dann muss σ durch die Stichprobenstandardabweichung s geschätzt werden. In diesem Fall folgt die Prüfgröße nicht der Standardnormalverteilung, sondern der t-Verteilung mit df = n − 1 Freiheitsgraden.
Was bedeutet „Freiheitsgrade“ (df) im Kontext der t-Verteilung?
Freiheitsgrade geben an, wie viele unabhängige Informationen zur Schätzung der Streuung zur Verfügung stehen. Bei der Varianzberechnung werden n − 1 Freiheitsgrade verwendet, weil die letzte Abweichung schon durch den Mittelwert “verbraucht” ist.
Wie unterscheidet sich die t-Verteilung von der z-Verteilung – und wann nähern sie sich an?
Die t-Verteilung ist symmetrisch und glockenförmig, hat aber breitere Ränder (größere Streuung) als die z-Verteilung.
Mit wachsendem n (ab ca. 30) nähert sich die t-Verteilung der z-Verteilung an.
Was sind die Formeln für die Prüfgrößen im z-Test und im t-Test?
Wie unterscheiden sich kritische z- und t-Werte bei kleinem n?
Was prüft der Ein-Stichproben t-Test?
Welche Voraussetzungen müssen erfüllt sein, um den Ein-Stichproben t-Test korrekt anzuwenden?
Die Daten stammen aus einer einfachen Zufallsstichprobe.
Die Werte in der Population sind normalverteilt.
Die Populationsstandardabweichung σ ist unbekannt und wird durch die Stichprobe geschätzt.
Wie lautet die Prüfgröße des Ein-Stichproben t-Tests, und was bedeuten die Symbole?
Wie wird das Konfidenzintervall des Mittelwerts beim Ein-Stichproben t-Test berechnet?
Wie wird das Konfidenzintervall interpretiert?
Mit 95 %iger Sicherheit liegt der wahre Mittelwert der Population zwischen Unter- und Obergrenze des Intervalls.
→ Wenn der Vergleichswert \mu_0 nicht im Intervall liegt → H₀ wird verworfen.
Wie beeinflusst die Stichprobengröße n die Teststärke und die Form der Verteilung?
Je größer n, desto kleiner der Standardfehler und desto enger das Konfidenzintervall.
→ Die t-Verteilung nähert sich der z-Verteilung an → Test wird empfindlicher (höhere Teststärke).
Was prüft der t-Test für unabhängige Stichproben?
Er prüft, ob sich die Mittelwerte zweier unabhängiger Gruppen signifikant voneinander unterscheiden.
Wie lauten die Null- und Alternativhypothesen?
Welche Voraussetzungen gelten für den klassischen t-Test mit gepoolter Varianz bei unabhängigen Stichproben?
Wie lautet die Prüfgröße für den t-Test mit gepoolter Varianz? (Formel)
Wie wird das Testergebnis interpretiert?
Wann sollte man statt des klassischen t-Tests den Welch-Test verwenden?
Wenn die Varianzannahme nicht erfüllt ist (Varianzen stark unterschiedlich)
Besonders kritisch: kleinere Gruppe hat größere Varianz
man läuft schneller Gefahr von zu progressiven Entscheidungen
Der Welch-Test korrigiert:
Standardfehler (eigene Varianzen statt gepoolt)
Freiheitsgrade via Welch-Satterthwaite-Gleichung (meist nicht ganzzahlig)
Wann darf man den klassischen t-Test nicht mehr verwenden – und wann wird der Welch-Test eingesetzt?
Wenn die Populationsvarianzen ungleich sind (d.h. s_1^2 und s_2^2 unterscheiden sich stark), ist der klassische t-Test mit gepoolter Varianz nicht mehr zuverlässig.
→ Dann verwendet man den Welch-Test, der keine Varianzgleichheit voraussetzt.
Was kann passieren, wenn die Varianzannahme verletzt ist, aber trotzdem gepoolt wird?
Der Standardfehler kann systematisch falsch geschätzt werden.
Die Fehlerwahrscheinlichkeit steigt.
Besonders kritisch: Wenn die kleinere Gruppe die größere Varianz hat → führt zu zu vielen falschen H₀-Verwerfungen.
Wie lautet die Prüfgröße beim Welch-Test?
Wie werden die Freiheitsgrade beim Welch-Test berechnet?
→ Die korrigierten df sind meist nicht ganzzahlig
→ Kritische t-Werte müssen aus Statistiksoftware berechnet werden
Welche Vorteile bietet der Welch-Test gegenüber dem klassischen t-Test?
Verzicht auf Annahme gleicher Varianzen
Zuverlässigere Fehlerkontrolle bei Varianzverletzung
Besonders nützlich bei ungleichen Gruppengrößen
Laut Literatur: In Zweifelsfällen oft immer besser als der gepoolte t-Test
Sollte man den Welch-Test standardmäßig verwenden?
Viele Autoren empfehlen:
Wenn keine explizite Varianzgleichheit gezeigt werden kann, ist der Welch-Test vorzuziehen – auch bei ungefähr gleichen Varianzen.
Wann gelten zwei Stichproben als abhängig?
Wenn die Messwerte paarweise zusammengehören:
Wiederholte Messung an derselben Person (z. B. vor/nach Intervention)
Matched Pairs wie Paare, Geschwister, etc. → Die Beobachtungen sind nicht unabhängig, sondern korreliert
Was prüft der t-Test für abhängige Stichproben – und wie unterscheiden sich gerichtete und ungerichtete Hypothesen?
Wie funktioniert der t-Test für abhängige Stichproben rechnerisch?
Welche Annahmen gelten für den t-Test bei abhängigen Stichproben?
Es handet sich um eine einfach zufallsstichprobe von Beobachtungspaaren.
Differenzwerte d sind in der Population normalverteilt.
Die Messwertreihen (moderat) “kovariieren” positiv miteinander
Last changed25 days ago