Grundlegende Idee
=> Modellpassung
=> Hypothesen prüfend
Modellspezifikation
(Was bedeuten die Zeichen in den Modellen?)
zu schätzende Parameter und Freiheitsgrade
p (p+1) / 2 = Anzahl bekannter Parameter
p = Variablen (x)
Freie/zu schätzende Parameter
(je nach Restriktionen)
Faktorladungen
Fehlervarianzen
Faktorvarianz
df = Anzahl bekannter Parameter - freie/zu schätzende Parameter
Skalierungsmethoden
Referenzindikator (eine Ladung pro Faktor wird auf 1 gesetzt)
Standardisierung der Faktoren (Varianz der latenten Variable wird auf 1 gesetzt)
Effects Coding (=> Constraints und Ladungen auf Intercepts)
Modellidentifikationen
Gleichungssystem eindeutig lösbar
= saturiertes Modell
Anzahl Parameter = Anzahl Gleichungen
df = 0
empirische und modellimplizierte Kovarianzmatrizen stimmen überein
Gleichungssystem lösbar, aber nicht eindeutig
df < 0 = unteridentifiziertes Modell
Gleichungssystem nicht exakt lösbar
df > 0 = überidentifiziertes Modell
Anzahl Parameter < Anzahl Gleichungen
—> sinnvolle Parameterschätzung möglich
Skalierung der latenten Variable
durch 3 ver. Skalierungsmethoden
—> Fit und Parameteranzahl änder sich nicht durch die Wahl der Skalierungsmethode
—> aufgeklärte Varianz der gemessenen Variable ist unabhängig von Skalierungsmethode
Modellgüte / Modellfit
Arten von Fit Indizes
—> Beschreibung, wie gut Modell auf Daten passt
(guter Modellfit keine Garantie für korrektes Modell)
Chi Quadrat Test
inkrementeller Fit
absoluter Fit
komparativer Fit
=> Signifikanztest
—> testet die Diskrepanz von empirischer und modellimplizierter Kovarianzmatrix
H0: Modell passt auf die Daten
H1: Modell passt nicht auf die Daten (Wie stark Abweichung beider Modelle ist)
Ziel: H0 annehmen —> Test nicht signifikant
ABER: Test sehr sensitiv und wird schnell sign.
Inkrementelle Fit Indizes
=> Vergleichen geschätztes Modell mit dem am meisten vs. am wenigsten erklärenden Modell
Comparative Fit Indizes (CFI)
Tucker Lewis Index (TLI)
Interpretationen
gut: CFI/TLI > 0.95
akzeptabel: 0.9 < CFI/TLI < 0.95
schlecht: CFI/TLI < 0.9
Absolute Fit Indizes
RMSEA
durchschnittliche Diskrepanz vom Modell zu beobachteten Daten pro df
gut, wenn RMSEA < 0.05
akzeptabel wenn RMSEA
0.05 < RMSEA < 0.08
SRMR
durchschnittliche Abweichung Modell vs. Daten der Korrelationsmatrix
gut: SRMR < 0.06
akzeptabel: 0.06 < SRMR < 0.08
Komparative Fit Indizes
=> nur zum Vergleich ver. Modelle geeignet
AIC
BIC
für den Modellvergleich von nicht genesteten Modellen
2 Punkte Differenz —> kleine Sicherheit für Modell mit geringerer AIC/BIC
6 Punkte Differenz —> mittlere Sicherheit
10 Punkte Differenz —> hohe Sicherheit
Modellvergleich genesteter Modelle
Chi restringiert - Chi unrestringiert
Freiheitsgrade
df restringiert - df unrestringiert
Zuletzt geändertvor 2 Jahren