4 Prüfgrößen der MANOVA
Wilks lamda
Pillai-(Bartlett)-Spur (V)
Hotelling Spur (T)
Roys größte Wurzel
Voraussetzungen des Signifikanztest der einfachen Regression
Prädiktorn metrisch oder dichotom
Kriterium metrisch
Homoskedastizität -> gleiche bedingte Varianzen in Y für alle X
normalverteilte Residuen
Unabhängigkeit der Residuen
Voraussetzungen gelten für die inferenzstatistischen Schlüsse, nicht für die Bestimmung der Regressionsparameter
Voraussetzungen der multiplen Regression
korrekte Spezifikation des Modells
Messfehlerfreiheit der UVs (perfekte Reliabilität)
Normalverteilung der Residuen
Homoskedastizität
problematische Datensituationen bei der multiplen Regression
Multikollinearität
Ausreißer und einflussreiche Datenpunkte
wichtige Aspekte bei der Spezifikation des Modells der multiplen Regression
Auswahl der Prädiktoren (zu viele, zu wenige)
Relation zwischen Prädiktoren und Kriterium (linear?)
Wirkung der Prädiktoren: additiv, Interaktionen?
Underfitting bei der Spezifikation des Modells der multiplen Regression
Auslassen wichtiger Prädiktorterme
nicht-lineare Anteile, Interaktionen, wichtige weitere, konfundierende Variablen
kann insgesamt zu falscher Interpretation der Ergebnisse führen
Abhilfe:
nicht-lineare Anteile und Interaktionen können entsprechend geprüft werden
der Einfluss weiterer Variablen ist eher theoretisch zu begründen
Overfitting bei der Spezifikation des Modells der multiplen Regression
Aufnahme irrelevanter Prädiktoren
führt zu verzerrter Schätzung der Regressionsgewichte
Prognosefehler und Kreuzvalidierungsfehler werden mit zunehmender Anzahl an Prädiktoren größer
Vermeidung durch Signifikanzprüfung der Prädiktoren und Elimination irrelevanter Prädiktoren
LOWESS-Anpassungslinie
locally weighted scatterplot smoother
stellt den Zusammenhang dar, ohne ein bestimmtes Modell zugrunde zu legen
Bereich um einen bestimmten X-Wert wird definiert -> smoothing window
dieser Bereich enthält eine bestimmte Anzahl an X-Werten
für diesen Bereich wird lineare Regression durchgeführt und für alle beobachteten X-Werte wiederholt
Konsequenzen inkorrekter Modellspezifikation bei der multiplen Regression
verzerrte Schätzung der Regressionskoeffizienten
verzerrte Schätzung der Standardfehler -> möglicherweise verringerte Teststärke
Konsequenzen der Verletzung der Messfehlerfreiheit der UVs bei der multiplen Regression
verzerrte Regressionsgewichte
Sicherstellen der Messfehlerfreiheit der UVs bei der multiplen Regression
möglichst reliable Skalen auswählen
nicht zu wenige Items verwenden -> Reliabilität steigt mit Anzahl der Items an
Verletzung und Überprüfung der Normalverteilung der Residuen bei der multiplen Regression
Verletzung führt zu korrekter Schätzung der Regressionsgleichung, aber zu falscher Schätzung der Standardfehler bei kleinen Stichproben
Verletzung kann auch auf Fehlspezifikation des Modells hinweisen
Überprüfen mit Histogramm der Residuen und/oder PP-Plot
Axiome Messfehlertheorie
Messfehler ist unsystematisch
der Erwartungswert der Messfehlervariablen ist über viele Personen hinweg = 0
Messfehlervariable und True-Score-Variable sind unkorreliert
konfirmatorische Faktorenanalyse
eindimensionale vs. mehrdimensionale Messmodelle
eindimensional: eine latente Variable ist für den Zusammenhang der beobachteten Variablen verantwortlich
mehrdimensional: eine latente Variable reicht nicht aus, um den Zusammenhang zwischen den beobachteten Variablen zu beschreiben
eine beobachtete Variable kann Indikator einer oder mehrerer latenten Variablen sein
es kann mehrere sinnvolle oder passende Modelle geben, die Beziehung zwischen manifesten Variablen zu beschreiben
konfirmatorische Faktorenanalyse vs. Pfadanalyse vs. Strukturgleichungsmodell
Konfirmatorische Faktorenanalyse: stellt die Beziehung von latenten Variablen und ihren Indikatoren dar
Pfadanalyse: untersucht komplexe Beziehungen zwischen (beobachteten) Variablen
komplexer im Vergleich zur multiplen Regression
Strukturgleichungsmodelle: untersuchen komplexe Beziehungen zwischen latenten Variablen unter Berücksichtung der Beziehung von latenten Variablen und ihren Indikatoren
konfirmatorische vs. explorative Faktorenanalyse
Mehrdimensionale Messmodelle
bei der exploratorischen Faktorenanalyse werden die Faktoren und die Zuordnung von beobachteten Variablen und Faktoren gesucht und sind das Ergebnis der Analyse
bei der konfirmatorischen Faktorenanalyse gibt es Hypothesen über die zugrundliegenden latenten Variablen und ihre Beziehung zu den beobachteten Variablen, die überprüft werden
Faktorenanalyse
konvergente Validität
Korrelation zweier Variablen, die mit verschiedenen MEthoden das gleiche erfassen
Ziel konfirmatorische Faktorenanalyse
Überprüfung und Bestätigung des Modells
ggf. auch überprüfen, welches von mehreren Modellen besser passt
Schritte der konfirmatorischen Faktorenanalyse
Spezifikation des Modells
Prüfung der Identifizierbarkeit
Schätzung der Modellparameter
Überprüfung der Modellgüte/Modellgültigkeit
ggf. Modifikation des Modells
ggf. Vergleich verschiedener Modelle
kann in Form von Gleichungen oder als Pfadmodell dargestellt werden
enthält:
Anzahl der Faktoren
Ladungsstruktur
= welche manifeste Variable lädt auf welchem Faktor
Korrelationen zwischen latenten Variablen?
evtl. weitere Restriktionen wie Gleichheit von Fehlervarianz oder Ladungen
Fixierungen
verfügbare Informationen in der konfirmatorischen Faktorenenanalyse
Varianzen der manifesten Variablen und die Kovarianzen zwischen ihnen
-> Elemente der beobachteten Varianz-Kovarianz-Matrix
Anzahl steigt mit Anzahl der beobachteten Variablen
Konfirmatorische Faktorenanalyse: wann ist ein Modell identifizierbar?
wenn die Anzahl verfügbarer Informationen ausreicht, um die Anzahl unbekannter Parameter zu schätzen
unbekannte Parameter ind der konfirmatorischen Faktorenanalyse
Varianzen der latenten Variablen und Residualvariablen, Ladungen der manifesten Variablen auf die latenten Variablen, Korrelationen zwischen den latenten Variablen (Kovarianzen zwischen latenten Variablen)
Anzahl ist abhängig von der Anzahl der latenten und manifesten Variablen
wann verbessert/verschlechtert sich Identifizierbarkeit in der konfirmatorischen Faktorenanalyse
verbessert durch Hinzunahme weiterer Indikatorvariablen
verschlechtert durch Hinzunahme weiterer Faktoren
Freiheitsgrade der Identifizierbarkeit bei Modellen der kofnirmatorischen Faktorenanalyse und drei mögliche Outcomes
df = Anzahl vorhandener Informationen - Anzahl unbekannter Modellparameter
df < 0 -> Modell ist nicht identifiziert (under-identified)
Modellparameter können nicht bestimmt werden (zu wenig Informationen)
df = 0 -> Modell ist genau identifiziert (just-identified)
eine eindeutige Lösung
beobachtete Daten werden perfekt reproduziert
df > 0 -> Modell ist überidentifiziert (over-identified)
eine eindeutige Lösung, die durch ein zusätzliche Kriterium gefunden wird
beobachtete Daten werden nicht perfekt reproduziert
Berechnung der Anzahl der Beobachtungen bei der CFA
p * (p + 1)/2
für p Variablen
Zwei Bestandteile des linearen Strukturgleichungsmodells
Messmodell und Strukturmodell
Messmodell -> faktorenanalytisches Modell
Strukturmodell -> Pfadanalyse
Messmodell
lineares Strukturgleichungsmodelle
Beziehungen zwischen latenten Variablen und ihren jeweiligen Indikatoren werden spezifiziert
es wird festgelegt, wie latente Variablen gemessen werden können
Indikatoren können metrisch oder ordinalskaliert sein
latente Variablen sind immer metrisch
Um Messfehler von wahren Effekten trennen zu können, müssen immer mindestens zwei Indikatoren pro latente Variable vorliegen
Strukturmodell
lineares Strukturgleichungsmodell
Hier werden die Beziehungen der latenten Variablen untereinander spezifiziert
diese Beziehungen können komplex sein und alle möglichen Effekt beinhalten
Pfadanalyse
exogene Variable
Variable, die nicht durch das Modell erklärt wird
nur unabhängige Variable
hat keine Fehlervarianz
endogene Variable
Variable, die durch das Modell erklärt wird
Abhängige Variable
Messfehler wird berücksichtigt
Mediatorvariable
vermittelnde Variable, steht in der Kausalkette zwischen zwei Variablen
unabhängige und abhängige Variable zugleich, also auch immer eine endogene Variable
Pfadkoeffizienten im Pfadmodell
die Regressionsgewichte der multiplen Regressionsgleichung
erster Index steht für die jeweilige AV, der zweite für den Prädiktor
additive Konstanten tauchen im Pfadmodell nicht auf
Berechnung des indirekten Effekts im Pfadmodell
Multiplikation der Pfadkoeffizienten des indirekten Weges
Berechnung des totalen Effektes im Pfadmodell
Summes des direkten und indirekten Effektes
Möglichkeiten der Modellüberprüfung insgesamt
Chi2-Wert (möglichst klein, nicht signifikant)
RMSEA (möglichst klein, nicht signifikant)
CFI (möglichst groß, nahe 1)
mithilfe dieser Werte lassen sich auch verschiedene Modelle hinsichtlich ihrer Güte vergleichen
autoregressives Modell
allgemein: eine Variable ist von derselben Variable zu einem oder mehreren vorherigen Messzeitpunkten abhängig
Ordnung des Modells dadurch bestimmt, wie viele Zeitpunkte ein einzelner Zeitpunkt beeinflusst
Ergebnis der Parameterschätzung im Pfadmodell
standardisierte und nicht-standardisierte Pfadkoeffizienten
standardisierte und nicht-standardisierte Fehlervarianzen, Standardfehler (nur für endogene Variablen)
standardisierte und nicht-standardisierte Varianzen der exogenen Variablen
Überprüfung des Mediatoreffekts bei der Pfadanalyse
Sobel-Test
besser, weil genauer: Bootstrapping
Bootstrapping
Methode der Datensimulation, SKV wird aus einer einzigen Stichprobe geschätzt
aus der Stichprobe mit Umfang n werden Stichproben mit dem Umfang n mit Zurücklegen gezogen
Die Verteilung eines bestimmten Parameters ergibt dann die SKV dieses Parameters
-> aus der mittels Bootstrapping berechneten Verteilung kann auch ein Konfidenzintervall bestimmt werden
Ablauf einer linearen Strukturgleichungsanalyse
Modellspezifikation
Identifikation
Beurteilung der Modellgüte
ggf. Modellvergleich, ggf. Modellmodifikation
LSGM: Berücksichtigung des Messfehlers
Messfehler der exogenen Variablen kann im SGM (anders als bei der Pfadanalyse) berücksichtigt werden
wird die Messfehlerbehaftetheit nicht berücksichtigt, wird der Zusammenhang mit den endogenen Variablen unterschätzt, je größer der Messfehler ist, umso mehr
Im Rahmen linearer Strukturgleichungsmodelle können messfehlerbedingte von wahren Einflüssen getrennt werden
Mögliche Restriktionen im LSGM
Fehlen von Zusammenhängen
Gleichheit von Faktorladungen
Gleichheit von Fehlervarianzen
bestimmte Werte für einzelne Parameter (wenn keine Fixierung)
bei autoregressiven Modellen eine geringere Ordnung annehmen
LSGM: Wieso ist die Fixierung der Metrik der latenten Variable nötig?
-> um zu einer eindeutigen Lösung kommen zu können
latente Variablen haben zunächst keine Metrik, und die Skalierung dieser beeinflusst die sonstigen Eigenschaften des Modells nicht, deswegen sind prinzipiell eine unendliche Anzahl and Lösungen möglich, mit unterschiedlich skalierten Faktoren
Ergebnis der Parameterschätzung im LSGM
Ladungen der manifesten Variablen auf die Faktoren (sofern nicht fixiert)
Pfadkoeffizienten für den Zusammenhang der latenten Variablen
alle Fehlervarianzen der manifesten Variablen
die Residualvarianzen der endogenen latenten Variablen
Die Varianzen der exogenen latenten Variablen (sofern nicht fixiert)
LSGM: Bedeutung der Ladungen
Was gibt das Quadrat der standardisierten Faktorladung an?
wie viel Varianz einer beobachteten Variablen durch diesen Faktor erklärt wird
(adiiert sich gemeinsam mit Fehlervarianz zu 1, wenn manifeste Variable nur durch diesen einen Faktor beeinflusst wird)
Mehrebenenmodelle:
Level 1 und Level 2 Variablen
Level 1: Individualebene
Level 2: Gruppenebene
Mehrebenenmodelle: ökologischer Fehlschluss
Ein auf Gruppenebene gefundener Zusammenhang wird fälschlicherweise auf Individualebene interpretiert
Mehrebenenmodelle: statistisches Problem der linearen Regression
Menschen sind sich Menschen ihrer eigenen Gruppe ähnlicher ala Menschen aus anderen Gruppen -> Residuen sind nicht aunabhängig
verletzte Voraussetzung der Regression, Standardfehler wird unterschätzt
Vorteile von Mehrebenenmodellen
Die hierarchische Struktur und die Abhängigkeiten innerhalb der Gruppe werden berücksichtigt
simultane Modellierung der Zusammenhänge auf mehreren Ebenen
Analyse von Unterschieden zwischen Personen (Personebene)
Analyse von Unterschieden zwischen Gruppen (Gruppenebene)
Eigenschaften der Gruppe als Moderatorvariablen
sehr gut geeignet für die Analyse längsschnittlicher Daten
3 Grundfragen der Mehrebenenanalyse
Welchen Wert haben der durchschnittliche Achsenabschnitt und die durchschnittliche Steigung über alle Gruppen hinweg?
Wie stark variieren gruppenspezifische Achsenabschnitte und Steigungen?
Warum variieren diese Größen?
5 Grundmodelle von Mehrebenenanalysen
Nullmodel/Intercept-Only-Modell
Random Intercept Modell
Modell mit Level 1-Prädiktoren ohne Level 2 Residuen für deren Steigungskoeffizienten
Random Coefficients Modell
Modell mit Level 1 Prädiktoren mit Level 2 Residuen für deren Steigungskoeffizienten
Modell mit Level 2 Prädiktoren für den Level 1 Achsenabschnitt
Modell mit Level 2 Prädiktoren für die Level 1 Steigungskoeffizienten (Cross-Level-Interaktionen)
Fragestellung der Intercept-Only Modells
Gibt es systematische Varianz in der AV?
Ist die Varianz auf Unterschiede innerhalb oder zwischen den Gruppen zurückzuführen?
Intercept-Only Modell: Intraklassenkorrelation
Ähnlichkeit zwischen den Werten der Kriteriumsvariable von zwei zufällig gezogenen Level-1-Einheiten aus derselben (zufällig gezogenen) Level 2 Einheit
Anteil and er Gesamtvariant in der Kriteriumsvariablen, der auf die Zugehörigkeit zu einer Level 2 Einheit zurückgeführt werden kann
Was muss bei der Berechnung der Intraklassenkorrelation berücksichtigt werden?
Wenn der ICC aus Stichprobendaten berechnet wird, ist die Stichprobenvarianz selbst kein erwartungstreuer Schätzer der Populationsvarianzen
Erkenntnis aus dem Vergleich des Intercept Only Modells mit dem Random Intercept Modells
Effekt eines Prädiktor kann festgestellt werden
-> Kann der Prädiktor über die Gruppen hinweg das Kriterium vorhersagen
hierarchische lineare Modelle:
feste und zufällige Effekte
feste Effekt: solche, die für alle Personen gleich sind
-> hier wird der Wert geschätzt
zufällige Effekte: Fehler/Residuen, für jede Person unterschiedlich, lassen sich den verschiedenen Ebenen zuordnen
-> hier wird die Varianz geschätzt
Konvergenz bei der Maximum-Likelihood Methode
eine Veränderung der Parameter führt zu keiner deutlichen Veränderung des Wertes der Likelihood-Funktion
-> Verfahren ist beendet
Mehrebenenmodelle: Devianztest
Dev = -2LL
je kleiner die Devianz, desto besser passt das Modell auf die Daten
Prüfgröße ist die Differenz der Devianzen zweier geschachtelter Modelle, diese Differenz ist Chi2-verteilt
komplexes Modell passt immer besser -> kleinere Devianz
restriktiveres Modell passt immer schlechter -> größere Devianz
Freiheitsgrade: df = q1 - q2
mit q = Anzahl der Parameter eines Modells
komplexeres Modell steht bei der Berechnung der Freiheitsgrade vorne, bei Berechnung der Prüfgröße hinten!
nicht signifikant: kein bedeutsamer Unterschied im Modellfit, restriktiveres beibehalten
signifikant: komplexeres Modell passt besser auf die Daten, restriktiveres Modell verwerfen
-> Modellpassung und Sparsamkeit
deskriptive Informationskriterien beim Modellvergleich: AIC
Akaike Information Criterion
Dev + 2q
Devianz und Anzahl Parameter wird berücksichtigt
besser ist das Modell, für das AIC kleiner ist
deskriptive Informationskriterien beim Modellvergleich: BIC
Bayesian Information Criterion
Dev + q ln(N)
Hier wird Devianz, Anzahl Parameter und die Stichprobengröße berücksichtigt
besser ist das Modell, für das BIC kleiner ist
Problem bei BIC: Stichprobengröße variiert bei Multi-Level Modellen zwischen den Level-2-Einheiten -> besser AIC nehmen
Wann (nicht) standardisieren bei einer linearen Regression?
standardisieren, wenn:
Originalmetrik nicht sinnvoll interpretierbar ist
verschiedene Prädiktoren verglichen werden sollen, die sich in Originalmetrik, Mittelwerte und/oder Varianzen unterscheiden
nicht standardisieren, wenn:
Originalmetrik sinnvoll interpretiert werden kann
Regression zur Vorhersage genutzt wird
Gruppen verglichen werden sollen
Standarschätzfehler
= Standardabweichung der Residuen -> “durchschnittliches” Residuum in der Originalmetrik der abhängigen Variablen
Wurzel der durchschnittlich quadrierten Residuen
gibt an, wie stark die beobachteten Werte um die Regressionsgerade streuen
je größer der Standardschätzfehler, desto ungenauer die Vorhersage
kann als Vergleich dienen, wenn zwei Modelle die gleiche AV haben, bei verschiedenen Modellen schwierig, da nicht standardisiertes Maß
Standardisiertes Maß für die Güte der Vorhersage in der Regression
Determinationskoeffizient: Anteil der Varianz der vorhergesagten Werte an der Gesamtvarianz
-> Anteil der erklärten Varianz an der Gesamtvarianz
entspricht eta2
Signifikanztests bei der einfachen Regression
t-Test der Korrelation
t-Test des Regressionsgewichts
F-Test der Regression
prüft die Hypothese, dass in der Population kein Zusammenhang besteht
Prüfgröße t berechnet sich aus der Produkt-Moment-Korrelation und der Stichprobengröße
df = n-2
t = r * Wurzel aus df / Wurzel aus 1-r2
ist die Varianzaufklärung durch den Prädiktor statistisch signifikant?
t = bj/𝜎j
df = n-k-1
Zerlegung der Variabilität des Kriteriums in den Anteil, der auf den Prädiktor zurückgeht und die Fehlervariabilität
Mittlere Quadrate: Quadratsummen (SS) geteilt durch df
dfReg= k, dfRes = n-k-1
F = MSReg / MSRes
Warum sollten wir mehr als zwei Variablen betrachten?
Aufdeckung redundanter Zusammenhänge
Aufdeckung von Scheinkorrelationen
Aufdeckung maskierter Zusammenhänge
multiple Regression: Multipler Korrelationskoeffizient
Korrelation zwischen den vorhergesagten und tatsächlichen Werten im Kriterium= R
0≤R≤1
Was ist die Nützlichkeit eines Prädiktors?
Überprüfbar mit F-Test des Inkrements
= Inkrement des Prädiktors
wie viel Varianz erklärt ein Prädiktor zusätzlich zu allen anderen Prädiktoren
hierarchische Regression
blockweises Aufnehmen von Prädiktoren
(theoriegeleitet)
Drei Strategien datengesteuerter Auswahl von Prädiktoren bei der multiplen Regression
Vorwärtsselektion
Rückwärtsselektion
Schrittweise Regression
Vorwärtsselektion bei der Auswahl von Prädiktoren
alle potenziellen Prädiktoren werden spezifiziert
Der Prädiktor mit dem größten Inkrement wird aufgenommen, so lange, bis weitere Prädiktoren nicht mehr signifikant werden
Rückwärtsselektion bei der Auswahl von Prädiktoren
Alle potenziellen Prädiktoren werden in das Modell mit aufgenommen
schrittweise wird die Variable entfernt, die das geringst und nicht-signifikante Dekrement zeigt
solange, bis nur noch signifikante Variablen übrig bleiben
schrittweise Selektion bei der Auswahl von Prädiktoren
Während Vorwärtsselektion wird nach jeder Aufnahme geprüft, ob ein Prädiktor nicht-signifikant geworden ist, dieser wird dann entfernt
solange bis kein Prädiktor mehr aufgenommen werden kann, der noch einen zusätzlichen Beitrag leistet und kein nicht-signifikanter Prädiktor im Modell ist
Theoretische vs. datengesteuerte Auswahl von Prädiktoren
Ziel
Test von theoretischen Modellen vs. maximale Varianzaufklärung bei minimaler Modellkomplexität
Risiko
Risiko von Overfitting (Aufnehmen irrelevanter Prädiktoren) vs. Risiko von Capitalizing on Chance (Auswahl wird durch Stichprobenfehler beeinflusst) und Underfitting (Ausschluss theoretisch relevanter Prädiktoren)
Effizienz der Vorhersage
weniger effizient vs. effizient, aber weniger präzise
Zentrierung
eine Form der Standardisierung
von jedem beobachteten Wert einer Variablen wird der Mittelwert dieser Variablen abgezogen
Wann sollte man Variablen zentrieren?
Variablen, bei denen der Wert 0 keine Bedeutung hat oder außerhalb des Wertebereiches liegt, sollten zentriert werden
Was ändert sich bei Zentrierung (nicht)?
durch eine Zentrierung von Variablen wird ihre Korrelation mit der Produktvariablen kleiner
Zentrierung verringert Multikollinearität
Regressionsgewicht, Standardfehler und Signifikanzprüfung der Moderatorvariablen ändert sich nicht
Regressionsgewicht der Prädiktorvariablen ändert sich
Standardfehler der Prädiktorvariablen wird kleiner
Determinationskoeffizient und und Verlauf der bedingten Regressionsgeraden bleibt gleich
Interpretation der Regressionskoeffizienten nach Zentrierungaller Variablen
b0 = geschätzter Wert für mittlere Ausprägungen in X1 und X2
b1 = Einfluss von X1 für mittlere Ausprägungen in X2
b2 = E1nfluss von X2 für mittlere Ausprägungen in X1
Was ist eine bedingte Regressionsgleichung?
(Moderatorvariable)
Regressionsfunktion für eine bestimmte Ausprägung der Moderatorvariablen
Johnson-Neyman-Intervall
Bereich der Moderatorvariable, für den die bedingten Regressionskoeffizienten signifikant von 0 verschieden sind
Zwei Arten der Kodierung
Dummy-Kodierung
-> Vergleich mit einer Referenzgruppe
Effektkodierung
-> Vergleich mit dem (ungewichteten) Gesamtmittelwert
Interpretation der Koeffizienten bei der Dummy-Kodierung
Achsenabschnitt b0 = Mittelwert der Referenzkategorie
Gewichtungskoeffizienten: Differenz zwischen dem jeweiligen Gruppenmittelwert und dem Mittelwert der Referenzgruppe
gewichtete vs. ungewichtete Effektkodierung
gewichtet: Berpcksichtigung der Anzahl der Werte in den einzelnen Gruppen
ungewichtet: keine Berücksichtung der Anzahl der Werte
Prinzip/Vorgehensweise der ungewichteten Effektkodierung
Referenzkategorie hat auf alles Kodiervariablen -1
Jede Kodiervariable hat für nur eine Kategorie den Wert 1, für die Referenzkategorie den Wert -1 und für alle anderen den Wert 0
Interpretation der Koeffizienten bei Effektkodierung
Achsenabschnitt b0 = ungewichteter Mittelwert aller Gruppen
Gewichtungskoeffizienten = Differenz zwischen dem jeweiligen Gruppen-Mittelwert und dem ungewichteten Gesamt-Mittelwert
drei Darstellungsweisen in der logistischen Funktion
Bedingte Wahrscheinlichkeiten
Wettquotient
Logit
Eigenschaften der Regressionsfunktion der logistischen Regression
Form einer Ogive
Strebt für -> +∞ gegen 1
Strebt für -> -∞ gegen 0
Stärkste Steigung im Wendepunkt -> Unterschiede in X haben besonders starken Einfluss
Logistisches Regressionsmodell: Bedeutung von beta0
Bestimmt die Wahrscheinlichkeit von Y=1 für den Wert 0 von X
Logistisches Regressionsmodell: Bedeutung von beta1
bestimmt die Steigung der Wahrscheinlichkeitsfunktion
-> Wie stark wirken sich Unterschiede in X auf die Wahrscheinlichkeit aus?
wenn positiv -> mit steigenden X-Werten nimmt die Wahrscheinlichkeit für Y=1 zu
wenn negativ -> mit steigenden X-Werten nimmt die Wahrscheinlichkeit für Y=1 ab
Parameterschätzung in der logistischen Regression
≠ multiple Regression (kleinste Quadrate Kriterium), sondern Maximum Likelihood Methode
iteratives Verfahren, die Parameter werden solange adjustiert, bis sich keine Verbesserung zeigt
Was beschreibt die Likelihood Funktion bei der Maximum Likelihood Methode?
Wahrscheinlichkeit für das Auftreten der in der Untersuchung beobachteten Daten unter der Annahme, dass die geschätzte Regressionsfunktion stimmt
Darstellung der logistischen Regression als Wettquotient
entspricht dem Verhältnis einer Wahrscheinlichkeit und ihrer Gegenwahrscheinlichkeit
Hypothesenprüfung einzelner Parameter bei der logistischen Regression
Drei Möglichkeiten:
z-Test (Regressionsgewicht geteilt durch seinen Standardfehler)
asymptotisch normalverteilt
Wald-Test = qaudrierter z-Test
Prüfung über Chi2-Verteilung
Likelihood-Ratio Test
Vergleicht die Likelihood zweier Modelle miteinander
mit vs. ohne Prädiktor
Differenz der Likelihood wird über Chi2-Verteilung auf Signifikanz geprüft
Mehrebenenmodelle: Simpson-Paradox
Zusammenhang zwischen X und Y hat innerhalb der Gruppen ein anderes Vorzeichen als zwischen den Gruppen
Wozu dient das Intercept-Only Modell?
Bestimmung der Gruppenunterschiede
Vergleich für komplexere Modelle
Index bei den Parametern der Mehrebenenmodelle
Index m für die Personen
Index i für die Gruppen
zu schätzende Parameter im Random Coefficients Modell
Varianz des Level 1 Residuums
Varianz des Level 2 Residuums bezüglich des Achsenabschnitts
Varianz des Level 2 Residuums bezüglich des Steigungskoeffizienten
Kovarianz der Level 2 Residuen bezüglich Achsenabschnitt und Steigungskoeffizienten
Mittelwert der gruppenspezifischen Achsenabschnitts
Mittelwert der gruppenspezifischen Steigungen
Daumenregeln der Identifizierbarkeit
Die Anzahl zur Verfügung stehender Informationen muss mindestens so groß sein wie die Anzahl zu schätzender Parameter
Für jeden Faktor muss mindestens eine Ladung auf einen festen Wert (≠0) oder die Varianz des Faktors auf einen festen Wert (≠0) festgelegt werden
Das Modell ist identifiziert, wenn es für jeden Faktor mindestens drei mainfeste Variablen gibt, die nur auf einem Faktor laden und die Residualvariablen unkorreliert sind
Gibt es für einen Faktor nur zwei manifeste Variablen und ist dieser mit den anderen Faktoren unkorreliert, müssen beide Ladungskoeffizienten dieses Faktors fixiert werden. Alternativ kann die Varianz des Faktors fixiert und die Ladung beider Variablen gleichgesetzt werden
Schätzung der Paramter des Modells bei der konfirmatorischen Faktorenanalyse erfolgt so, dass die vom Modell implizierte Varianz-Kovarianz-Matrix…
…die Modellrestriktionen erfüllt
…der beobachteten Varianz-Kovarianz-Matrix möglichst nahe kommt
häufig mit Maximum-Likelihood Methode
danach kann die Abweichung der implizierten Matrix von der beobachteten Matrix auf Signifikanz geprüft werden
Voraussetzung der Maximum Likelihood Schätzmethode
multivariate Normalverteilung
Root Mean Square Residual
Gesamtmaß zur Beurteilung der Modellanpassungsgüte
wird aus den Zellen der Residualmatrix berechnet: Quadratwurzel aus dem Mittelwert der quadrierten Residuen
Maß für die Gesamtabweichung der beiden Varianz-Kovarianz-Matrizen
-> Formel entspricht dem Standardschätzfehler der Regression!
Root Mean Square Error of Approximation
Closeness-of-Fit Koeffizient für die Modellanpassungsgüte
beschreibt, ob der Unterschied zwischen den Varianz-Kovarianz-Matrizen nicht zu groß ist
RMSEA sollte < .05 sein
Detail-Maße der Überprüfung der Modellgüte bei der konfirmatorischen Faktorenanalyse
Residuen als Differenz vom empirischen und implizierten Wert für jede Zelle der Matrix
alle sollten möglichst klein sein
standardisierte Residuen: Residuen werden durch ihren Standardfehler geteilt -> z-Wert
weicht dieser signifikant von 0 ab?
Bestandteile der Residualvariable in der Faktorenanalyse
Fehler + variablenspezifischer Anteil
Ziele der eploratorischen Faktorenanalyse
Datenreduktion: Information vieler Variablen soll zusammengefasst werden
-> wie viele Faktoren werden benötigt, um die Zusammenhänge zwischen den beobachteten Variablen zu beschreiben/erklären?
Prüfen der Eignung der Variablen für eine Faktorenanalyse
Bartlett-Test muss signifikant sein -> H1: in der Population gibt es eine Korrelation >0
prüft, ob sich die beobachtete Korrelationsmatrix von der Einheitsmatrix unterscheidet
Kaiser-Meyer-Olkin Kriterium: muss auf jeden Fall > 0.5, möglichst größer > 0.8 sein
Wieso sind sich konfirmatorische und exploratorische Faktorenanalysen ähnlicher, als es auf den ersten Blick scheint?
Um die “Grunddimensionen” (also die Faktoren) eines Konstruktes bestimmen zu können, müssen diese in den manifesten Variablen und dabei bei der Auswahl der manifesten Variablen bekannt sein.
Bei der Konstruktion der Items muss also schon eine Vorstellung über den untersuchten Gegenstandsbereich existieren
Schritte der exploratorischen Faktorenanalyse
Auswahl der Variablen (Fragen/Items)
wichtig:
substanzielle Korrelation zwischen den Variablen
Variablen repräsentieren den Gegenstandsbereich angemessen
Stichprobe ist nicht zu eingeschränkt
Extraktion der Faktoren
Bestimmung der Anzahl der Faktoren
Rotation der Faktoren
Interpretaion der rotierten Faktoren
ggf. Bestimmung von Faktorwerten ( = Stärke der Ausprägung der Faktoren für jede Person)
exploratorische Faktorenanalyse
garbage in - garbage out - Prinzip
nur die Grunddimensionen, die in den Variablen enthalten sind, können auch entdeckt werden
Verhältnis von Kommunalität und Reliabilität
Kommunalität darf nicht wesentlich geringer sein als die Reliabilität, da sonst die variablenspezifischen Anteile zu groß sind
-> Residualvariable sollte möglichst nur den Messfehler beinhalten
Kommunalität
Varianzanteil einer mainfesten Variablen, der durch die Faktoren erklärt werden kann
-> entspricht also dem Determinationskoeffizienten in der Regression
Eigenwert eines Faktors
gibt an, wie viel von der Gesamtvarianz aller Variablen durch einen bestimmten Faktor erklärt wird
Summe der quadrierten Ladungen aller Variablen auf diesem Faktor
Range 0 - Max, mit max = Anzahl an Variablen (da alles Variablen durch Standardisierung eine Varianz von 1 haben)
Kriterien zur Bestimmung, wann der Eigenwert eines Faktors zu klein ist
Kaiser-Kriterium
alle Faktoren, deren Eigenwert ≥ 1 ist, werden ausgewählt
(1 -> Varianzaufklärung einer Variablen)
Scree-Test
Alle Faktoren links vom “Knick” in der Funktion werden aufgenommen
Parallelanalyse
Vergleich des Eigenwertverlaufs der gewählten Faktoren mit denen von simulierten Zufallsvariablen
Die Eigenwerte, die höher sind als die der Parallelanalyse, werden gewählt
weniger subjektiver als der Scree-Test, deswegen empfohlen
PP-Plot
Probability-Probability Plot: exploratives, grafisches Werkzeug
die beobachteten kumulierten Häufigkeiten werden gegen die unter einer bestimmten Veteilung erwarteten kumulierten Häufigkeiten aufgetragen
Bei Vorliegen der entsprechenenden Verteilung liegen die Pünkte auf der Diagonalen
QQ-Plot
Quantil-Quantil Plot: exploratives, grafisches Werkzeug, in dem die Quantile zweier statistischer Variablen gegeneinander abgetragen werden
-> beobachtete vs. erwartete Quantile
= gleiche Varianzen der AV für alle Ausprägungen der Prädiktoren
= gleiche Varianzen der Residuen für alle Ausprägungen der Prädiktoren
entspricht Varianzhomogenität bei der ANOVA
Verletzung der Homoskedastizität bei der multiplen Regression
korrekte Schätzung der Regressionsgleichung, aber faösche Schätzung der Standardfehler
Identifikation über Residuenplot
Residuenplot
(Voraussetzung multiple Regression)
Residuen in Abhängigkeit vom vorhergesagten Wert
hilft bei der Entdeckung von Fehlspezifikationen des Modells
man schaut, ob für alle Ausprägungen der AV die Residuen um 0 streuen und ob diese Streuung überall etwa gleich groß ist
perfekter Residuenplot:
Streuung der Residuen ist über den gesamten Wertebereich etwa konstant (Anzahl über den gesamten Wertebereich muss nicht konstant sein)
haben über den gesamten Wertebereich einen Mittelwert von 0
Unabhängigkeit der Residuen:
Bedeutung
Verletzung
Abhilfe
generelle Annahme bei fast allen inferenzstatistischen Verfahren
verletzt, wenn sich bestimmte Werte der AV/Residuen systematisch ähnlicher sind als andere, entsteht odt durch Fehler bei der Versuchsplanung oder -durchführung
bei mehrstufiger Stichprobenauswahl (Klumpenstichprobe)
bei serieller Abhängigkeit
Verletzung führt zu korrekter Schätzung der Regressionsgleichung, aber (deutlicher) Unterschätzung der Standardfehler
Abhilfe: Gründe für Abhängigkeit ins Modell aufnehmen
problematische Datensituation bei der multiplen Regression:
= hohe multiple Korrelation zwischen einem Prädiktor und den anderen Prädiktoren
führt zu einer unpräzisen Schätzung des Regressionsgewichtes (großer Standardfehler)
sehr hohe Multikollinearität tritt auf, wenn
ein Prädiktor in die Berechnung eines anderen eingeht (Interaktionseffekt)
mehrere Indikatorien eines Konstruktes oder zweier sehr ähnlicher Konstrukte als UVs verwendet werden
ein ähnliches oder das gleiche Maß zu mehreren Messzeitpunkten erhoben und alle als UV verwendet werden
multiple Regression: ab wann ist Multikollinearität problematisch?
wenn die Korrelation zwischen Prädiktorvariablen sehr hoch ist (quadrierte multiple Korrelation > .80)
Bestimmung der Multikollinearität
Toleranzfaktor TOL = 1 - R2
R2 = quadrierte multiple Korrelation zwischen dem Prädiktor X und allen anderen Prädiktoren
TOL = 0 -> R2 = 1: exakte Multikollinearität
TOL = 1 -> R2 = 0: Prädiktor ist mit anderen Prädiktoren unkorreliert
Varianzinflationsfaktor VIF = 1/TOL
VIF = 1 -> unkorreliert
VIF > 5 -> hohe Multikollinearität
VIF > 10 -> sehr hohe Multikollinearität
Möglichkeiten der Reduktion von Multikollinearität
Eliminieren von Prädiktoren
Aggregation:
hoch korrelierende Variablen werden zunächst zusammengefasst (Mittelwert), ergibt Sinn, wenn sie das gleiche Konstrukt erfassen
faktorenanalytische Reduktion
Konsequenzen der Verletzung der Voraussetzungen der multiplen Regression
Vorraussetzung
Regressionskoeffizienten
Standardfehler der Koeffizienten
Verzerrung
Messfehlerfreiheit der UVs
keine Verzerrung
Arten von Ausreißern und einflussreichen Datenpunkten in der multiplen Regression
Extreme Werte auf den Prädiktoren
Extreme Werte auf der AV und den Residuen
nicht jeder Ausreißer muss ein einflussreicher Datenpunkt sein
multiple Regression: extreme Werte auf den Prädiktoren und wie man sie misst
können einen größeren Einfluss auf die Regressionsfunktion haben als mittlere Ausprägungen
Mahalanobis: standardisierte Abweichung vom Mittelwert, bezogen auf alle Prädiktoren
Hebelwert/zentrierter Hebelwert: “Wirkung” eines Wertes auf die Regressionsfunktion, berechnet sich ebenfalls aus der Abweichung der UVs von ihrem Mittelwert
Schwellenwerte für zentrierte Hebelwert
bei kleinen Stichproben 2k/n
bei großen Stichproben 3k/n
multiple Regression: extreme Werte auf der abhängigen Variablen
lassen sich oft über die Residuen identifizieren
standardisierte/studentisierte Residuen
Visualisierung von Residuen z.B. in Boxplots
statistische Maße, die quantifizieren, wie einflussreich ein einzelner Wert in der multiplen Regression ist
DfBETA/DfBETAS
DfFIT/DfFITS
Cooks Distanz
zur Berechnung wird in der Regel der jeweilige Datenpunkt aus dem Datensatz entfernt und ermittelt, wie stark sich die einzelnen Parameter der Regressionsgleichung ändern
Einfluss eines einzelnen Datenpunktes auf die Schätzung der Regressionskoeffizienten
= Differenzen in den Regressionsgewichten mit und ohne diesen Datenpunkt, DfBETA-0 und DfBETA-1
s = standardisiert (DfBETA geteilt durch Standardfehler der REgressionskoeffizienten)
Einfluss eines einzelnen Datenpunkts auf die Schätzung der vorhergesagten Werte
= Differenz zwischen den vorhergesagten Werten mit und ohne diesen Datenpunkt, ein Wert pro Datenpunkt
DfFITS = standardisiert (= DfFIT geteilt durch den Standardfehler der vorhergesagten Werte (berechnet ohne diese Person))
basiert auf den quadrierten DfFITS-Werten
-> nur positive Werte
Schwellenwerte basieren auf der F-Verteilung
df1: k + 1
df2: n-k-1
alpha = .50
Umgang mit einflussreichen Datenpunkten
einzigartiger Fall -> ausschließen
bekannte Subpopulationen -> Subpopulationen kontrollieren
unbekannte Subpopulationen -> Mischverteilungsmodelle
Sensitivitätsanalysen
robuste Regressionsmethoden als Alternative wählen
kein p-hacking betreiben
Suppressoreffekt
eien hohe bivariate Korrelation zwischen zwei Prädiktoren deutet daraufhin, dass der zweite Prädiktor irrelevante Varianz im ersten Prädiktor absorbieren/unterdrücken kann und sich dadurch die Vorhersage verbessert
Von einem Suppressor spricht man, wenn…
…ein Prädiktor die Vorhersagekraft eines anderen Prädiktors erhöht
sein Beitrag in der multiplen Regression deutlich höher ist als sein Bietrag (r2) in der einfachen Regression
es kann auch zu einer Umkehr des Vorzeichens zwischen dem Regressionsgewicht in der multiplen Regression und dem Regressionskoeffizienten der einfachen Regression kommen
Last changed2 years ago