(Seite 7) Wann verwendet man den t-Test für unabhängige Stichproben?
Wenn man zwei unabhängige Gruppen miteinander vergleichen möchte, um zu prüfen,
ob sie aus derselben oder unterschiedlichen Populationen stammen.
Beispiel: Männer vs. Frauen bei Belastbarkeit.
Details merken:
H₀: m₁ = m₂
H₁ (ungerichtet): m₁ ≠ m₂
H₁ (gerichtet): m₁ > m₂ oder m₁ < m₂
(Seite 8) Wie wird die Prüfgröße t beim unabhängigen t-Test berechnet?
(Seite 11–12) Wie interpretiert man den empirischen t-Wert beim Beispiel Männer vs. Frauen?
t = –0.503, df = 16
Kritischer t₁₆;97.5% = 2.120
Da |–0.503| < 2.120 → nicht signifikant
➡ H₀ wird beibehalten, Männer und Frauen unterscheiden sich nicht signifikant in der Belastbarkeit.
(Seite 13) Welche Annahmen müssen für den unabhängigen t-Test gelten?
Unabhängige Zufallsstichproben
Varianzhomogenität (σ₁² = σ₂²)
Normalverteilung der Messwerte in beiden Populationen
Der Test ist robust gegenüber leichten Verletzungen dieser Annahmen.
(Seite 14) Warum kann der herkömmliche t-Test bei ungleichen Varianzen problematisch sein?
Wenn die Populationsvarianzen stark unterschiedlich sind, kann der Standard-t-Test
zu Fehlentscheidungen führen.
➡ Besonders kritisch, wenn die kleinere Stichprobe die größere Varianz hat → zu progressiver Testentscheidung (H₀ wird zu schnell verworfen).
→ Lösung: Welch’s t-Test („unequal variance t-test“) – angepasst für ungleiche Varianzen.
(Seite 15) Wie wird der Standardfehler beim Welch-t-Test berechnet?
Anstelle der gepoolten Varianz wird jede Gruppenvarianz einzeln verwendet:
Keine gepoolte Varianz → bessere Anpassung bei ungleichen Streuungen.
Dadurch ist die Prüfgröße nicht exakt t-verteilt, sondern nur approximativ.
(Seite 16) Wie werden beim Welch-t-Test die Freiheitsgrade korrigiert?
Die korrigierten Freiheitsgrade (df₍corr₎) werden nach der Welch-Satterthwaite-Formel berechnet:
df₍corr₎ ist keine ganze Zahl, daher meist computergestützt (z. B. in R).
Einige Autoren empfehlen, grundsätzlich den Welch-t-Test zu verwenden, wenn Unsicherheit über Varianzhomogenität besteht.
(Seite 17) Wann spricht man von abhängigen Stichproben – und warum braucht man dafür einen eigenen t-Test?
Von abhängigen Stichproben spricht man, wenn die Messwerte paarweise verbunden sind:
gleiche Personen werden mehrfach gemessen (z. B. „vor vs. nach“ einer Intervention)
Paare bilden logische Einheiten (z. B. Partnervergleiche)
➡ Da sich die Messungen nicht unabhängig beeinflussen, darf der Standard-t-Test nicht verwendet werden.
(Seite 18) Wie lautet die Hypothesenformulierung beim t-Test für abhängige Stichproben?
Die Hypothesen bleiben formal identisch wie beim unabhängigen t-Test:
Unterschied: Die Werte stammen aus denselben Personen oder Paaren, nicht aus unabhängigen Gruppen.
(Seite 19) Womit wird beim abhängigen t-Test gerechnet – und wie sieht die Prüfstatistik aus?
(Seite 21–22) Was ergab das Beispiel zur Selbsteinschätzung vor der Klausur?
n = 15 Studierende, α = .05
t = –3.14
df = 14
kritischer t₁₄;97.5% = 2.145
Da |–3.14| > 2.145 → signifikant.
➡ Studierende unterschätzen ihre tatsächliche Leistung signifikant.
(Seite 23–24) Welche Annahmen gelten beim t-Test für abhängige Stichproben?
Einfache Zufallsstichprobe von Beobachtungspaaren
Normalverteilung der Differenzwerte (dᵢ)
Moderat positive Korrelation zwischen den Messreihen
Der Test ist robust gegenüber leichten Verletzungen.
Ab n ≈ 30 Beobachtungspaaren (zentraler Grenzwertsatz) ist Normalverteilung unkritisch.
Große Stichproben erhöhen die Teststärke.
(Seite 25) Warum werden in der Statistik Varianzen verglichen?
Weil viele Tests (z. B. der t-Test) die Annahme gleicher Populationsvarianzen machen.
Man prüft daher, ob Unterschiede der Stichprobenvarianzen zufällig oder systematisch sind.
→ Wenn Varianzen nicht homogen sind, muss man z. B. den Welch-t-Test verwenden.
→ Relevante Tests: F-Test und Levene-Test.
(Seite 26) Welche Hypothesen werden beim Varianzvergleich getestet?
H₀: σ₁² = σ₂²
H₁: σ₁² ≠ σ₂² (ungerichtet)
Hier ist H₀ oft die „Wunschhypothese“, z. B. beim Testen der Varianzhomogenität.
Daher wird α manchmal liberal gewählt (z. B. 0.10 oder 0.20), um den β-Fehler (Fehler 2. Art) zu verringern.
(Seite 27) Wie wird die Prüfgröße F berechnet und interpretiert?
mit
s₁²: Varianz der ersten Gruppe
s₂²: Varianz der zweiten Gruppe
Gilt H₀, dann folgt F einer F-Verteilung mit
df₁ = n₁ – 1 (Zählerfreiheitsgrade)
df₂ = n₂ – 1 (Nennerfreiheitsgrade)
Verteilung ist asymmetrisch (0 bis ∞).
(Seite 29–30) Wie unterscheidet sich die einseitige und zweiseitige Testung beim F-Test?
F-Verteilung ist nicht symmetrisch → zwei kritische Werte bei ungerichteter Testung.
Um das zu vermeiden, wird immer die größere Stichprobenvarianz in den Zähler gesetzt. ➡ Damit genügt ein kritischer F-Wert am oberen Rand (z. B. 5 %-Niveau → obere 2,5 %).
Bei gerichteter Testung wird die erwartete größere Varianz in den Zähler gesetzt – unabhängig davon, ob sie tatsächlich größer ist.
(Seite 31–33) Wie läuft der F-Test im Beispiel „Zeitungsleser A vs. B“ ab?
n₁ = 121, n₂ = 61
s₁² = 80, s₂² = 95
F = 95 / 80 = 1.188
kritischer F₍60,120;95%₎ = 1.429
➡ Da 1.188 < 1.429 → nicht signifikant
→ H₀ beibehalten, Varianzen gelten als homogen.
(Seite 34) Welche Annahmen gelten für den F-Test?
Unabhängige Stichproben
Normalverteilung der Messwerte
F-Test ist nicht robust gegen Verletzung der Normalverteilung.
Bei Zweifel → besser den Levene-Test verwenden (robuster).
(Seite 35–36) Was ist der Grundgedanke des Levene-Tests?
Dann wird ein t-Test für unabhängige Stichproben auf diese Abweichungsbeträge angewendet.
→ Prüft, ob sich die mittleren Abweichungsbeträge der Gruppen unterscheiden.
→ Robuster gegen Verletzungen der Normalverteilung.
(Seite 37–39) Wie wurde der Levene-Test im Beispiel mit Männern und Frauen angewendet?
α = .20
Berechnung der Abweichungen vom Mittelwert je Person
Mittelwerte der Abweichungen:
Männer: 19.11
Frauen: 16.00
t = 0.90, kritischer t₁₁;90% = 1.363
➡ Da |t| < 1.363 → nicht signifikant
→ H₀ beibehalten, Varianzen sind homogen → kein Welch-t-Test nötig.
(Seite 41) Was sind Freiheitsgrade – und wofür werden sie in der Statistik gebraucht?
Freiheitsgrade (df) = Anzahl der Werte, die bei der Berechnung einer Statistik frei variieren können,
ohne eine definierte Bedingung (z. B. den Mittelwert) zu verletzen.
Beispiel:
Zur Berechnung des Mittelwerts braucht man alle n Werte → df = n
Sobald der Mittelwert festgelegt ist, bleibt bei der Varianz nur noch df = n – 1
→ Freiheitsgrade bestimmen Form und Breite der t-Verteilung.
→ Je größer df, desto stärker nähert sich die t-Verteilung der Normalverteilung.
(Seite 42) Wie beeinflussen Freiheitsgrade die Varianzberechnung konkret?
Diese Korrektur (Division durch n–1 statt n) verhindert eine systematische Unterschätzung der Populationsvarianz.
t-Tests basieren immer auf dieser df-Korrektur.
Zuletzt geändertvor 2 Monaten