Was ist das Ziel der Inferenzstatistik?
Ziel der Inferenzstatistik = von bekannten Parametern einer Stichprobe auf unbekannten Parameter der Grundgesamtheit zu schließen
ermöglicht, aus Stichprobendaten Rückschlüsse über die
Population zu ziehen und Hypothesen zu testen
Was ist die Nullhypothese und die Alternativhypothese und was machen wir mit diesen?
Nullhypothese (H₀): Behauptet, dass kein Effekt oder kein Unterschied besteht (z.B. Mittelwertunterschied = 0)
Alternativhypothese (H₁): Behauptet, dass ein Effekt oder ein Unterschied besteht
Vorgehen: Man testet mit statistischen Verfahren, ob die Daten ausreichend gegen die Nullhypothese sprechen.
p-Wert < α → H₀ abgelehnt und H₁ angenommen
Was ist eine Stichprobenkennwerteverteilung?
Stichprobenkennwerteverteilung ist die theoretische Verteilung eines statistischen Kennwerts (z.B. Mittelwert), der aus vielen gleich großen Zufallsstichproben einer Population berechnet wird. Sie ist Grundlage für das Schätzen von Populationsparametern und das Berechnen von Konfidenzintervallen
Was besagt ein p-Wert?
p-Wert gibt an, wie wahrscheinlich das beobachtete Ergebnis (oder ein extremeres) unter der Annahme der Nullhypothese ist. Ein kleiner p-Wert spricht gegen die Nullhypothese, ein großer p-Wert spricht für sie
Interpretation des p-Werts → Der p-Wert ist die Wahrscheinlichkeit, einen mindestens so großen Effekt zu beobachten, wenn man annimmt, dass die Nullhypothese wahr ist (!)
Was bedeutet Signifikanz und Nicht-Signifikanz?
Signifikanz: p-Wert kleiner als das festgelegte Signifikanzniveau (meist 0,05) ist → H0 abgelehnt
Nicht-Signifikanz: p-Wert ist größer als das Signifikanzniveau → H0 beibehalten
Was ist ein kritischer Wert?
Der kritische Wert trennt bei einem statistischen Test den Annahmebereich von der Ablehnungsregion der Nullhypothese. Liegt der Testwert jenseits des kritischen Werts, wird H₀ abgelehnt
Was ist eine Effektstärke (im Unterschied zum p-Wert)?
Effektstärke: Gibt die Größe eines Effekts an (z.B. Korrelationskoeffizient) und ist unabhängig von der Stichprobengröße.
p-Wert: Gibt nur an, wie wahrscheinlich ein Effekt unter H₀ ist, aber nichts über die Größe des Effekts
Was ist der Unterschied zwischen einseitigem und zweiseitigem Testen?
Einseitiger Test: Hier wird geprüft, ob ein Effekt ausschließlich in eine bestimmte Richtung vorliegt (z.B. ob ein Mittelwert größer oder kleiner als ein bestimmter Wert ist). Der Ablehnungsbereich für die Nullhypothese liegt nur an einem Ende der Verteilung. Die Alternativhypothese ist entsprechend gerichtet, z.B. H1:μ>μ0H1:μ>μ0 oder H1:μ<μ0H1:μ<μ
Zweiseitiger Test: Hier wird geprüft, ob ein Effekt in irgendeine Richtung von einem Wert abweicht (z.B. ob ein Mittelwert ungleich einem bestimmten Wert ist). Der Ablehnungsbereich ist auf beide Enden der Verteilung verteilt. Die Alternativhypothese ist ungerichtet, z.B. H1:μ≠μ0
Was ist ein Typ-I (bzw. Alpha-Fehler) und ein Typ-II-Fehler (bzw. Beta-Fehler)?
Typ-I-Fehler (Alpha-Fehler): Die Nullhypothese wird fälschlicherweise abgelehnt, obwohl sie in Wirklichkeit wahr ist. Man findet also scheinbar einen Effekt, der in Wahrheit nicht existiert (false positive). Wahrscheinlichkeit = Signifikanzniveau α
Typ-II-Fehler (Beta-Fehler): Die Nullhypothese wird fälschlicherweise beibehalten, obwohl sie falsch ist. Ein tatsächlich vorhandener Effekt wird also nicht erkannt (false negative). Wahrscheinlichkeit = β
Was versteht man unter Teststärke?
Die Teststärke (auch Power genannt) ist die Wahrscheinlichkeit, mit einem Test einen tatsächlich vorhandenen Effekt auch zu entdecken, also eine falsche Nullhypothese korrekt abzulehnen.
entspricht 1−β → hohe Teststärke bedeutet das Risiko für einen Typ-II-Fehler gering ist
Welche Größen setzt man im Rahmen einer Teststärkenanalyse in Beziehung?
Im Rahmen einer Teststärkenanalyse (Power-Analyse) werden folgende Größen in Beziehung gesetzt:
Stichprobengröße (N): Je größer die Stichprobe, desto höher die Teststärke.
Effektstärke: tatsächliche größe Unterschied/ Zsmhangs (z.B. Cohen’s d, Korrelationskoeffizient)
Signifikanzniveau (α): Wahrscheinlichkeit, einen Typ-I Fehler zu begehen (meist 0,05).
Teststärke (Power, 1-β): Die Wahrscheinlichkeit, einen tatsächlich vorhandenen Effekt zu entdecken
Statistisches Testverfahren: Verschiedene Tests haben unterschiedliche Anforderungen und Sensitivitäten
Wechselwirkung: Erhöht man die Stichprobengröße oder die Effektstärke, steigt die Teststärke. Senkt man das Signifikanzniveau, sinkt die Teststärke
Warum und für wen ist geringe Teststärke problematisch?
geringe Teststärke bedeutet, dass ein vorhandener Effekt mit hoher Wahrscheinlichkeit nicht entdeckt wird (Typ-IIFehler)
problematisch, weil:
Studien mit geringer Teststärke zu falschen Schlussfolgerungen führen können, da echte Effekte übersehen werden.
Risiko, wirksame Interventionen oder Zusammenhänge nicht zu erkennen.
Ressourcenverschwendung, wenn Studien keine aussagekräftigen Ergebnisse liefern.
Replikationen sind notwendig, was Zeit und Kosten erhöht
Wann benötige ich einen Chi-Quadrat-Test?
Der Chi-Quadrat-Test wird verwendet, um zu prüfen, ob zwischen zwei nominal oder ordinal skalierten Variablen ein Zusammenhang besteht, oder ob die Verteilung eines Merkmals in zwei Gruppen gleich ist
Unabhängigkeitstest: Prüft, ob zwei Variablen voneinander unabhängig sind.
Vergleich von Häufigkeiten: Prüft, ob beobachtete Häufigkeiten von den erwarteten Häufigkeiten abweichen (z.B. bei Kreuztabellen)
Voraussetzungen: Zufallsstichprobe, absolute Häufigkeiten, ausreichend große Zellbesetzungen (meist mindestens 5 pro Zelle)
Was ist der McNemar-Test?
ein Spezialfall des Chi-Quadrat-Tests für gepaarte nominale
Daten (z.B. Messwiederholungen bei denselben Personen)
prüft, ob Anteil der Fälle mit unterschiedlichen Ausprägungen zw. zwei Zeitpunkten signifikant unterscheidet.
Typische Anwendung: Vorher-Nachher-Studien mit dichotomen (zweiwertigen) Ergebnissen bei denselben Probanden (z.B. Erfolg/Misserfolg vor und nach einer Behandlung)
Die Analyse erfolgt mit einer 2×2-Kontingenztabelle, wobei der Test die Häufigkeiten der nicht übereinstimmenden Paare (b und c) vergleicht. Die Teststatistik lautet:
χ²=(b−c)²b+c
χ²=b+c(b−c)²
Ein signifikanter Wert zeigt, dass sich die Anteile zwischen den Bedingungen unterscheiden
Wie testet man eine Korrelation gegen „0“ und wie testet man eine Korrelation gegen einen bestimmten angenommenen Wert?
Gegen „0“ testen = Test auf Unkorreliertheit bei Normalverteilung kann durch Test mit t-verteilten Prüfgröße überprüft werden, ob die Korrelation ungleich 0 ist
ungerichtet:
𝐻0: 𝜌𝑋𝑌 = 0,𝐻1: 𝜌𝑋𝑌 ≠ 0
gerichtet:
𝐻0: 𝜌𝑋𝑌 ≤ 0 𝐻1: 𝜌𝑋𝑌 > 0
Prüfgröße für den Test errechnet sich auf der Korrelation r und der Stichprobengröße n, (df = n-2)
Korrelation gegen einen bestimmten Wert testen:
Um Korrelationen gegen einen anderen Wert zu testen oder um mehrere Korrelationen zu vergleichen, sind andere Tests nötig (wozu die Korrelationen transformiert werden müssen)
Fisher’s Z-Transformation ist notwendig
Was ist der Unterschied zwischen Korrelation und partieller Korrelation?
Korrelation:
Misst den Zusammenhang zwischen zwei Variablen, ohne andere Einflüsse zu berücksichtigen, wie stark hängen zwei Variablen direkt miteinander zusammen
Partielle Korrelation:
Misst Zusammenhang zw. 2 Variablen, während d. Einfluss einer/ mehrerer weiterer Variablen herausgerechnet wird, wie stark korrelieren zwei Variablen, wenn der Einfluss von Störvariablen kontrolliert wird
Wann benötige ich eine einfache oder eine multiple Regression?
Einfache Regression:
Wenn du den Einfluss einer einzigen UV auf eine AV untersuchen möchtest
Multiple Regression:
Wenn du den Einfluss mehrerer UVs auf eine AV gleichzeitig analysieren willst, ermöglicht es, den Einfluss jeder einzelnen Variable zu bereinigen und Wechselwirkungen zu erkennen
Was bedeutet die Regressionskonstante inhaltlich?
Regressionskonstante (Intercept) gibt den geschätzten Wert der AV an, wenn alle Prädiktoren den Wert null haben. Sie ist der Schnittpunkt der Regressionsgeraden mit der y-Achse
Was bedeuten die Regressiongewichte inhaltlich (je in der einfachen und multiplen Regression)?
Regressionsgewicht zeigt, um wie viele Einheiten die AV verändert, wenn UV um eine Einheit steigt
Jedes Regressionsgewicht gibt an, wie stark sich die AV verändert, wenn die jeweilige UV um eine Einheit steigt – unter Kontrolle aller anderen Prädiktoren.
Wozu braucht man die Standardisierung von Regressionsgewichten und wann sollte man sie nichtanwenden?
Wozu? machen Effekte vergleichbar, wenn Prädiktoren unterschiedliche Maßeinheiten haben
Wann nicht anwenden? Wenn ursprüngliche Maßeinheit der Prädiktoren für die Interpretation wichtig ist (z.B. beikonkreten Einheiten wie Euro oder Jahre), sollte man unstandardisierte Koeffizienten verwenden
Was ändert die Zentrierung der Prädiktoren am Regressionsmodell?
Durch Zentrierung (Subtraktion des Mittelwerts) wird der Mittelwert eines Prädiktors auf null gesetzt. Das hat zurFolge, dass die Regressionskonstante den vorhergesagten Wert der AV für durchschnittliche Prädiktorwerte angibt. Das erleichtert die Interpretation, insbesondere bei Interaktionen
Wie können wir beurteilen, wie gut ein Regressionsmodell vorhersagt/erklärt?
Güte eines Regressionsmodells beurteilt man meist mit dem
Bestimmtheitsmaß R² (Determinationskoeffizient)gibt an, wie viel Prozent der Varianz der AV durch das Modellerklärt werden
Je höher R², desto besser erklärt das Modell die Daten
Mit welchem Test kann man Regressionskonstante und – gewichte gegen „Null“ testen?
Um zu prüfen, ob die Regressionskonstante (Intercept) und die Regressionsgewichte (Koeffizienten) signifikant von Nullverschieden sind, verwendet man t-Tests. Für jeden Regressionskoeffizienten wird ein t-Wert berechnet, der angibt, ob der jeweilige Koeffizient signifikant von Nullabweicht
Was ist der globale F-Test in der Regression?
globale F-Test prüft, ob das Regressionsmodell insgesamt signifikant ist, also ob mindestens ein Prädiktor einen signifikanten Beitrag zur Vorhersage der AV leistet
H0 lautet, dass alle Regressionsgewichte (außer dem Intercept) gleich Null sind
signifikanter F-Test zeigt (d.h. Femp. > Fkrit.), das Modell ist erklärungskräftig
Wie macht man eine konkrete Vorhersage für eine Person mittels einer multiplen Regression?
Um eine konkrete Vorhersage zu machen, setzt man die
individuellen Werte der Person für alle Prädiktoren in die
Regressionsgleichung ein:
Was ist Multikollinearität und anhand welchen Werts kann man diese bestimmen?
bezeichnet hohe Korrelationen zw. Prädiktoren einer Regression
d.h. wenn ein Prädiktor 𝑥𝑗 sehr gut durch die anderen Prädiktoren im Rahmen eines linearen Modells vorhergesagt werden kann
Multikollinearität wird angezeigt durch,...
einen hohen Wert des Determinationskoeffizienten 𝑹𝒋𝟐 in der Regression von 𝑥𝑗 auf alle anderen Prädiktoren.
einen niedrigen Wert der Toleranz 𝑇𝑜𝑙𝑗 des Prädiktors 𝑥
einen hohen Wert des Varianzinflationsfaktors 𝑉𝐼𝐹𝑗 des Prädiktors 𝑥 (ab 𝑉𝐼𝐹 > 10 ein Problem)
Was sind geschachtelte Modelle und wie funktioniert ein Modellvergleich?
Zwei lineare Regressionsmodelle heißen geschachtelt, wenn das größere Modell (Anzahl der Parameter) sämtliche Prädiktoren des kleineren Modells und noch mindestens einen weitere UV enthält und die AV dieselbe ist Modellvergleich prüft, ob das uneingeschränkte die Daten signifikant besser beschreibt als eingeschränkte Modell, meist mit F-Test
Parsimonitätsprinzip / Ockhams Rasiermesser
→ mehrere hinreichenden möglichen Erklärungen für selben Sachverhalt ist die einfachste Theorie anderen vorzuziehen
Wie erstellt man eine Dummy-Codierung und wie interpretiert man die entsprechenden Regressionsparameter (Regressionskonstante und –gewichte)?
Dummy-Codierung wandelt kategoriale Variablen in binäre Variablen (0/0/1) um
Für eine Kategorie keine Dummy-Variable (0/0/0) (Referenzkategorie)
Regressionskonstante entspricht dem Mittelwert der Referenzgruppe
Regressionsgewichte der Dummy-Variablen geben die Differenz zw. dem Mittelwert der jeweiligen Gruppe und der Referenzgruppe an
Wie testen wir Mittelwertsunterschiede zwischen mehreren Gruppen?
Mittelwertsunterschiede zwischen mehreren Gruppen testet man mit der Varianzanalyse (ANOVA). Sie prüft, ob die Mittelwerte in mindestens einer Gruppe signifikant von den anderen abweichen
Wie gelangt man von den Quadratsummen in der ANOVA zu den F-Statistiken?
Quadratsummenzerlegung:
„Gesamtvarianz“ = „systematische Varianz“ (𝑄𝑆𝑧𝑤) +„Fehlervarianz“ (𝑄𝑆𝑖𝑛𝑛)
d.h. Grundidee ist eine Zerlegung der Gesamtquadratsumme (𝑄𝑆𝑡𝑜𝑡) in eine Quadratsumme zwischen den Bedingungen (𝑄𝑆𝑧𝑤) und innerhalb der Bedingungen (𝑄𝑆𝑖𝑛𝑛)
Freiheitsgrade (df): geben an, wie viele unabhängige Infos in Berechnung eingehen (Schätzung eines Parameters)
QStot: 𝒅𝒇𝒕𝒐𝒕 = 𝒏 − 𝟏
QS𝑧𝑤: 𝑑𝑓𝑧𝑤 = 𝐽 − 1
QSinn: 𝑑𝑓𝑖𝑛𝑛 = 𝑛 − 𝐽
Sind beobachteten Mittelwertsunterschiede zufällig?
→ Signifikanztestung= F-Test
Mittlere QS = Variation zw. und innerhalb der Gruppen
F-Wert wird größer, wenn die M𝑄𝑆𝑧𝑤 groß ist
F-Wert wird kleiner, wenn M𝑄𝑆inn größer ist
Statistische Entscheidung:
Vergleich mit kritischem F-Wert
Femp. > Fkrit. → H0 wird verworfen, signifikant
Welche Arten der Varianzanalyse haben wir kennengelernt und wie unterscheiden die sich?
Einfaktorielle Varianzanalyse:
Eine abhängige Variable, ein Faktor
Bsp.: Unterscheiden sich Noten von Schülern, die nach einer von vier Lehrmethoden unterrichtet worden sind
Zweifaktorielle Varianzanalyse:
Eine abhängige Variable, zwei Faktoren
Bsp.: Unterscheiden sich Noten von Schülern, die nach einer von vier Lehrmethoden unterrichtet worden sind und nach Geschlecht
Mehrfaktorielle Varianzanalyse:
Eine abhängige Variable, drei Faktoren
Bsp.: Unterscheiden sich Noten von Schülern, die nach einer von vier Lehrmethoden unterrichtet worden sind, nach Geschlecht, und nach Fachart
Einfaktoriell mit Messwiederholung:
mehrere Messzeitpunkte gleichen VPs
Wie heißen die drei Voraussetzungen der ANOVA (und der Regression)?
Homoskedastizität – die Streuungen innerhalb der Gruppen sind identisch
Unabhängigkeit der Gruppen
Normalverteilung der AV innerhalb jeder Gruppe
Welche (drei) Effektstärken haben wir für Mittelwertsunterschiede in Varianzanalysen kennengelernt und wie unterscheiden sich diese?
Eta-Quadrat (η²):
Anteil der erklärten Varianz an der Gesamtvarianz (.01 (kleiner),.06 (mittlerer),.14 (großer Effekt))
Partielles Eta-Quadrat:
Anteil der Varianz, den ein Faktor erklärt, bereinigt um andere Faktoren
Omega-Quadrat (ω²):
Alternative (zu η²) ohne systematische positive Überschätzung der Populationseffektgröße
Was ist eine Interaktion und wie testen wir diese?
Interaktion liegt vor, wenn der Effekt eines Faktors auf die abhängige Variable von der Ausprägung eines anderen Faktors abhängt. Getestet wird dies in einer mehrfaktoriellen ANOVA über den Interaktionsterm
Welche Arten von Interaktion gibt es?
Ordinale Interaktion:
gleiche Richtung, unterschiedliche Stärke
es können globale Aussagen getroffen werden
Disordinale Interaktion:
Kreuzung der Linien im Interaktionsplot
gegensätzlich zu globalen Aussagen, nur gemeinsam interpretierbar
Hybride Interaktion
eine Kreuzung, eine gleiche Richtung
können nur eine globale Aussage für einen der beiden Effekte machen
Was ist die Alpha-Fehler-Kumulierung wie begegnet man dieser?
Bei jedem der Vergleiche besteht die Gefahr fälschlicherweise einen signifikanten Effekt zu finden ( α=0.05)
Allgemein können wir schreiben:
p(Mind. ein Fehler) = 1 − 1 −𝛼𝑘
α-Fehler-Kumulierung (bzw α-Fehler-Inflation) ist die Erhöhung der globalen Wahrscheinlichkeit, einen Alpha- Fehler (Typ-1-Fehler) durch multiples Testen
d.h. je mehr Test desto mehr wächst das Kumulierte Alpha → man findet einen signifikanten t-Test, obwohl es keinen gibt, daher eine ANOVA
Um a-Fehler-Kumulierung auszugleichen → a-Wert der einzelnen Tests anpassen
z.B. durch Bonferroni- Adjustierung, Tukey-Test und Dunnett-Test
Was ist ein post-hoc Test?
ANOVA, um festzustellen, ob ein statistisch signifikanter Unterschied zw. Mittelwerten von drei ( zwei) oder mehrunabhängigen Gruppen besteht → ja, dann Post-Hoc-Test
mit Post-Hoc-Tests herausfinden, welche Gruppenmittelwerte sich voneinander unterscheiden
Post-hoc-Tests ermöglichen die Kontrolle der Fehlerrate der Familie von Tests (familywise error-rate) bei der Durchführungmehrerer paarweiser Vergleiche
Nachteil der Kontrolle der familienspezifischen Fehlerrate istdie geringere statistische Teststärke
Teststärke (nach Korrektur) ist höher, wenn wir wenigerVergleiche durchführen
im Voraus festlegen, welche Gruppen Sie paarweise vgl.möchten + welchen Post-Hoc-Test dafür verwenden werden
Was kann man aus einer post-hoc-Vergleich-Tabelle lesen?
Eine post-hoc-Vergleich-Tabelle zeigt die Ergebnisse allerdurchgeführten Gruppenvergleiche. Daraus kann man ablesen:
Welche Gruppen sich signifikant unterscheiden
In welche Richtung der Unterschied geht (positiver oder negativer Wert)
Effektstärken wie Cohen’s d oder Hedges’ g, um die praktische Relevanz des Unterschieds einzuschätzen (klein/mittel/groß)
Welche Tests verwendet wurden
Tukey: bei gleich großen Gruppen
Bonferroni: konservativ, bei vielen Vergleichen
Games-Howell: bei ungleichen Varianzen und Gruppengrößen
Kontrolle des Alpha-Fehlers
Die p-Werte sind korrigiert, um die α-Fehler-Kumulierung (Fehlentscheidungen bei vielen Vergleichen) zu vermeiden. Achte darauf, dass du „adjustierte“ p-Werte verwendest (nicht die „rohen“ p-Werte).
Welche Arten von post-hoc-Test-Verfahren haben wir kennengelernt und wie unterscheiden sich diese?
Bekannte post-hoc-Test-Verfahren sind:
Bonferroni-Test: Streng, kontrolliert den Alpha-Fehler sehrkonservativ, geeignet bei wenigen Vergleichen.
Tukey-HSD-Test: Speziell für paarweise Vergleiche nachANOVA, auf Basis einer adjustierten Prüfverteilung, mittlereStrenge, geeignet für gleich große Gruppen
Dunnet-Test: wenn es eine Bedingung gibt, gegen die alleanderen getestet werden sollen, d.h. nur Vergleich gegenReferenzgruppe; weniger Korrektur, aber auch weniger PowerVerlust (JASP: p-Wert ist kleiner als 0.1, d.h. signifikant)
Was ist eine Kontrastanalyse? Wie führt man diese durch?
Kontrastanalyse (a priori): gezielt spezifische Hypothesenüber die Unterschiede zw. Gruppen zu testen, erfolgt vorDatenerhebung/ Analyse und basiert auf vordefinierten,theoretisch fundierten Erwartungen
Ausgangsszenario: Aufgrund inhaltlich fundierter Hypothesensind die Unterschiede zw. ausgewählten Gruppen vonbesonderem Interesse. Da diese Vergleiche vor der Datenerhebung schon feststehen = (a priori) geplanteVergleiche, in Kontrastanalyse untersucht
Durchführung:
Kontrast Kodierung erlaubt die Formulierung vonspezifischen Mittelwerten → Kontrasten
Kontraste immer a priori festlegen (sonst Gefahr d.Überschätzung + Erhöhte Typ I Fehlerwahrscheinlichkeit)
mit Kontrasten prüfen wir spezifische Hypothesen
Kontrastanalyse = Ein Kontrast (Lambda: Λ) ist eine Linearkombination der J Mittelwerte eines Faktors(„Populationsmodell“):
Kontrastkoeffizienten werden so gewählt, dass Hypotheserepräsentieren → müssen addiert 0 ergeben
z.B. Es gibt einen Unterschied in Aggressivität zw. Rad und Autofahrern:
Herleitung von Koeffizienten → gruppiert und vergibtGewichte(1/k), bei gerichteter Hypothese bekommt Gruppe vonder wir höhere Werte erwarten PlusBerechnung: die QS des Kontrast → MQS des Kontrasts →Prüfgröße folgt einer F-Verteilung
F emp > F krit → H0 verwerfen
Was sind orthogonale Kontraste und wie testet man Orthogonalität?
Wenn nach ANOVA mehrere Kontraste getestet werden, können diese unterschiedliche im Verhältnis stehen
zwei Kontraste orthogonal, wenn sie nicht redundant (keine Überschneidung/ d.h. Unabhängigkeit) sind zwei Kontraste sind orthogonal zueinander, wenn die Summe der Multiplikation der jeweiligen Kontrastkoeffizienten 0 ist
max. Anzahl d. orthogonalen Kontraste ist Anzahl der
Faktorstufen minus 1 → J-1
Arten von Kontrasten: Einfacher Kontrast, Abweichungskontrast, Helmert-Kontrast
Welche zusätzliche Annahme brauche ich bei der messwiederholten Varianzanalyse und wie kann ich für die Verletzung der Annahme korrigieren?
Sphärizität
→ Varianzen aller möglichen Differenten der messwiederholten Variable sind homogen (gleich) bei 2 Messzeitpunkten immer gegeben, ab 3 muss geprüft werden
wenn Sphärizität nicht gegeben, ist der F-Test zu liberal (d.h. Wahrscheinlichkeit des α-Fehlers wird größer)
Korrektur:
→ bei Verletzung, Korrektur (Reduktion) der Freiheitsgrade je stärker die Homogenitätsannahme verletzt ist, desto kleiner wird ε
Mauchly-Test testet auf Sphärizität (wir wollen, dass er nicht signifikant (d.h. p<0.05) ist
ε > 0.75 Huynh-Field ansonsten Greenhouse-Geisser (Untergrenze ist konservativste Variante eher 0.75)
Wozu benötige ich eine Hauptkomponentenanalyse?
Hauptkomponentenanalyse (PCA) dient zur Datenreduktion
Ziel: Zusammenhänge zw. vielen Variablen durch wenige Hauptkomponenten (HK) darzustellen, d.h. Einfache Beschreibung der Beobachtungen durch wenige Variablen(ohne viel Information zu verlieren)
PCA ist hypothesengenerierend, exploratorisch
PCA besteht aus drei Schritten:
Extraktion
Varianz der beobachteten Variablen 𝑍𝑖 durchebenso viele HK 𝐻𝑗 erklärt
jede Variable eine Linearkombination der HK
𝜆𝑖𝑗 (lambda) = Beitrag der HK𝑗 zur Variable𝑖
𝜆𝑖𝑗² = erklärte Varianz in Item i durch HKjZiele der Zerlegung: Zerlegung der enthaltenen Infos +Minimierung der Redundanz
Reduktion
Eigenwerte in einem Screeplot darstellen
Ziel = Datenreduktion, daher nur die wichtigsten HKsauswählen, andere verwerfen
Reduktion nach Kaiser Guttmann Kriterium: alle HKsbehalten, deren Wert höher als 1 (mehr Varianz alseigene Variable aufklären)
Reduktion d. Parallelanalyse nach Horn: zufällige Datenmit gleicher n + Variablenanzahl erzeugt
nur HKs mit Eigenwert über diesen Daten behalten
Auswirkung d. Reduktion: Kommunalität sinkt, abersparsameres Modell (HKs werden aufsummiert)
Interpretation: Wie viel Varianz wird durch Item erklärt(z.B. Item Kommunalität v. .555 = 55.5%)
Rotation
PCA überlegt, wie man Modell drehen muss, damitmeisten Infos abgebildet sind
Rotation erhöht Interpretierbarkeit
Ziel: möglichst einfache Struktur der Ladung zu findenEigenschaften nach Rotation:
Summe der quadrierten Faktorladung pro Item(Kommunalität) bleibt gleich
Eigenwert ändert sich
Was ist die Kommunalität und wie berechne ich diese?
Kommunalität:
beschreibt wie viel Varianz einer Variable Z𝒊 durch dieersten k Hauptkomponenten gemeinsam aufgeklärt wird
Wert immer zwischen 0 und 1
wollen hohe Kommunalität
Eigenschaft d. beobachteten Variablen → Summe aller HK
Uniqueness:
Gegenstück (Kehrwert) zur Kommunalität
Uniqueness = 1- Kommunalität
Welche Arten der Rotation von Hauptkomponenten gibt es?
Zwei Arten von Rotationen:
Orthogonale Rotation: neuen HKs ist ebenfalls unkorreliert
Oblique Rotation: neuen HKS nach der Rotation korrelieren
Varimax-Rotation = Varianz Maximierung
häufig verwendetes Verfahren zur orthogonalenRotation ist die Varimaxrotation, bei der die Varianz derquadrierten Ladungen auf jeder Hauptkomponentemaximiert werden soll (d.h. man sucht eine Lösung mitmöglichst vielen betragsmäßig großen Werten und vielennahe bei Null)
Wie bestimmt man die Anzahl der Hauptkomponenten?
Kaiser Guttmann Reduktion
-> alle HKs die größer sind als 1 werden beibehalten
Scree-Plot (Knickkriterium)
→ alle HKs oberhalb des Knicks ewrden beibehalten, schlecht definiert (was/wo ist der Knick)
Parallelanalyse nach Horn
zufällige Daten mit einer gleichen Stichprobenanzahl + Variablen werden erzeugt, auch in eine PCA gerechnet und mit den HKs vergleichen, die höher sind als die zufälligen Daten werden beibehalten
Was sind die Eigenwerte und wie berechne ich diese?
Eigenwerte 𝛿 (Delta)
= die Eigenschaft der Hauptkomponente
beschreibt den Anteil der Gesamtvarianz aller Variablen,den die HK aufklärt (d.h. wie viele Infos überbeobachteten Variablen kann durch diese HK alleinausgedrückt werden)
Summe aller Variablen
Je größer der Eigenwert, umso mehr Varianz klärt dieseHK im Mittel auf
Bei Extraktion klärt meist 1. HK am meisten auf,sukzessiv weniger
Wie kann man berechnen, wieviel Varianz eine Auswahl von Hauptkomponenten gemeinsam erklären?
Aus den Eigenwerten die (mittlere) Varianzaufklärung ab
Summe der Eigenwerte der ausgewählten HK geteilt durchdie Summe aller Eigenwerte (multipliziert mal 100 (%))
Varianzaufklärung normiert zw. 0 und 1 → 𝛿𝑗 / 𝑝
In % dargestellt (z.B. Eigenwert 2,5 und 5 Variablen à 2.5/5 =0.5 =50%)
Was sind die Voraussetzungen der Hauptkomponentenanalyse?
Die Zusammenhänge zwischen den Variablen sollten linear sein
Es sollten nicht zu viele Ausreißer vorliegen
Die Variablen sollten metrisches Skalenniveau haben (alsomindestens intervallskaliert sein)
Insgesamt hat die Hauptkompontenanalyse eher wenigVoraussetzungen
Last changeda month ago