-Wir versuchen mit Hypothesentests, den Fehler 1. Art zu minimieren
-Der Aufbau des Hypothesentest setzt voraus, dass H0 gilt!
-Fehler 1. Art ist die Irrtumswahrscheinlichkeit des Tests
-Fehler 1. Art (aka Typ I-Fehler aka 𝛼-Fehler ): Der Fehler, die H0 abzulehnen (und H1 anzunehmen), obwohl H1 eigentlich richtig ist
-Unter der Annahme, dass H0: μ = μfix zutrifft, ist es sehr unwahrscheinlich, dass ein von der H0 abweichendes Ergebnis zufällig zustande gekommen ist
-Dabei minimieren wir den Fehler 1. Art, indem wir uns für eine möglichst gerine Irrtumswahrscheinlichkeit entscheiden
-Irrtumswahrscheinlichkeit: Wahrscheinlichkeit des Ergebnisses der Zufallsstichprobe unter Annahme, die H0 sei korrekt, formal: P(𝑥̅|H0)
-Per Konvention (siehe Kapitel 9)
o Signifikant: Irrtumswahrscheinlichkeit < 0,05
o Sehr signifikant: Irrtumsw. < 0,01
o Hoch signifikant: Irrtumsw. <0,001
-Fehlerwahrscheinlichkeit hier liegt immer bei max. 5 % und ist klar benennbar
-Fehler 2. Art (aka Typ II-Fehler aka 𝛽-Fehler): Der Fehler, die H1 abzulehnen (und H0 anzunehmen), obwohl H1 eigentlich richtig ist.
-Schwierigkeit beim Fehler 2. Art:
o Die Wahrscheinlichkeit eines Fehlers 2. Art lässt sich (meist) nicht vorab bestimmen.
o Denn: Die Alternativhypothese, ist unbestimmt, z.B. H1: μ ≠ μfix
o Das heißt, die H1 erfasst alle Möglichkeiten der Ungleichheit (1) von μ und μfix
o Fehlerwahrscheinlichkeit ist hier nicht klar benennbar und kann sehr unterschiedlich ausfallen
o Die Wahrscheinlichkeit eines Fehlers 2. Art wird umso größer, je näher der wahre Wert μ0 an dem von der Nullhypothese behaupteten Wert μ liegt
o ODER: Je kleiner die Abweichung des tatsächlichen vom behaupteten Wert, desto größer paradoxerweise die Wahrscheinlichkeit, einen Fehler zu machen, wenn man aufgrund des Testergebnisses weiterhin dem behaupteten Wert μ Glauben schenkt (selbst wenn sie nur sehr wenig voneinander abweichen!)
-Der Fehler 2. Art hängt von μfix ab (unbekannt!) und kann daher nicht ‚kontrolliert‘ werden
==> Wir können (müssen) in unserem Test den Fehler 1. Art möglichst klein halten!
-Nur die Entscheidung "H0 verwerfen" ist statistisch gesichert (signifikant), weil wir
o die Geltung einer eindeutigen Nullhypothese prüfen
o die Irrtumswahrscheinlichkeit festgelegt werden kann
==> Tests sind Instrumente zum Widerlegen von Nullhypothesen, nicht zu deren Bestätigung.
-WICHTIG: Wir berechnen weder die Wahrscheinlichkeit der H0, noch der H1!
-Bisher: "Fixer" Hypothesen = Test mit einem vorgegebenen Wert eher selten in den Sozialwissenschaften
-Häufig allerdings Vergleich von zwei Teilmengen aus einer Grundgesamtheit = Zwei-Stichprobentest aka relativer Hypothesentest - Wir testen, ob die Differenz zwischen Gruppen signifikant größer/kleiner als 0 ist
-Hypothesentest eines Zusammenhangs: Wir testen, ob ein Zusammenhang (Regressionskoeffizient, Chi2-Wert, ...) signifikant größer/kleiner als 0 ist.
-1. Die Stichprobenverteilung von d = 𝑥̅F-𝑥̅M nähert sich einer t-/Normalverteilung, je größer der Umfang der Zufallsstichproben
-2. Der Erwartungswert der Stichprobenverteilung ist die Differenz in der Population
-3. Der Standardfehler hängt (wie immer...) vom Stichprobenumfang n und der Streuung ab (b.w.)
-EGAL, wie die Ausgangsvariable X in den beiden Gruppen verteilt ist.
-Unter der Annahme, dass die Varianzen der beiden Teilgruppen in der Population gleich sind, lautet der geschätzte Standardfehler für Mittelwertdifferenzen
-errechne die Differenz aus zwei Schätzwerten
-Behauptung: Frauen erreichen bessere Abiturnoten als Männer.
-Ziehe 1000 verschiedene Stichproben mit jeweils n=1000 Personen, berechne in jeder Stichprobe die durchschnittliche Punktzahl im Abitur, getrennt nach Frauen und Männern ==> erhalte 1000 Differenzen ( ==> Normalverteilung)
-Erinnerung: Die Stichprobenverteilung (z.B. von Mittelwerten, Anteilen und 𝛽- Koeffizienten) nähert sich einer Normalverteilung N(μ, SE) , je größer die Zufallsstichproben (n==>∞) für bekannte Populationsvarianz
==> Lösung ist die t-Verteilung
-t-Verteilung: Familie von Verteilungen, die durch ihre Freiheitsgrade indiziert wird. t-Verteilungen sind unimodal, symmetrisch und konvergieren gegen die Normalverteilung, je größer die Freiheitsgrade.
-Bei Stichproben von 30-50 Leuten ist die Verteilung etwas niedriger und breiter (später wieder normalverteilt)
-Beide genannten "Probleme" werden über die Student's t-Verteilung aufgefangen
-t-Verteilung ist etwas breiter und flacher als eine Normalverteilung, nähert sich aber mit zunehmenden df der Normalverteilung an.
-df = „Zahl der Werte, die bei Berechnung einer Kennzahl frei variieren können“
-Für "einfache" Hypothesentests ist df = n-1 (Details siehe Lit.)
-T-Verteilung muss verwendet werden, wenn…
o Kleine Stichproben vorliegen (Faustregel: n kleiner 50)
o Wenn SE geschätzt wird (das ist fast immer der Fall)
-Hypothesentests werden oft t-Tests genannt
-T-Verteilung kann/sollte immer verwendet werden, da die t-Verteilung ohnehin gegen N (0,1) konvergiert
-Statistikprogramme verwenden die t-Verteilung
-Breitere Tails haben zur Folge, dass
o bei gleicher Irrtumswahrscheinlichkeit der kritische Wert größer ist und daher H0 seltener verworfen wird
o bzw. ein Verwerfen der H0 größere Werte der Teststatistik erfordert
==> t-Verteilung ist 'konservativer' als die Standardnormalverteilung
-t-Verteilung muss verwendet werden, wenn
o wenn kleine Stichproben vorliegen (Faustregel: n < 50)
o wenn SE geschätzt wird (das ist fast immer der Fall!)
-t-Verteilung kann/sollte immer verwendet werden, da die t-Verteilung ohnehin gegen N(0,1) konvergiert
-Daher werden Hypothesentests oft t-Tests genannt
-t-Test: Hypothesentest für kleine Stichproben und/oder wenn SE geschätzt wird. Häufig: t-Teststatistik auch bei großen Stichproben, da die t-Verteilung dort ohnehin der Normalverteilung entspricht
Last changed5 months ago