Was sind die Ziele einer konfirmatorischen Faktorenanalyse?
1. Prüfung der Annahmen zur Zugehörigkeit von manifesten Variablen zu einem latenten Faktor
2. Test von psychometrischen Messmodellen
Was sind die Schritte der konfirmatorischen Faktorenanalyse?
1. Spezifikation des Messmodells
2. Identifizierbarkeit des Modells überprüfen
3. Modellschätzung
4. Modellbeurteilung
5. Modifikation des Modells
Ab wann ist ein Modell schätzbar? (Schritt: Prüfung der Modellidentifikation)
Modell nur schätz- und prüfbar, wenn Ausreichend Informationen vorhanden sind, um lineare Gleichung zu lösen (df > 0)
Was sind die Parameter der linearen Gleichung zur Schätzung des Modells (Berechnung der Freiheitsgrade)?
df = s - t
s:
Verfügbare Informationen (s) = Varianzen und Kovarianzen
s = 𝑝(𝑝+1)/2 , p: Anzahl der Variablen
t:
Zu schätzende Parameter (t) = Faktorladungen, Fehlervarianzen, Faktorvarianzen und -kovarianzen
t = Anzahl der Faktorladungen, Fehlervarianzen, Faktorvarianzen und - kovarianzen
Wie werden latente Faktoren skaliert? (Das bedeutet, dass ihre Varianz und ihre Mittelwerte festgelegt werden, um das Modell identifizierbar zu machen)
Faktorvarianz und Erwartungswert der Faktoren müssen festgelegt werden
Faktorvarianz: auf 1 fixieren oder Faktorladung eines reliablen Referenzitems auf 1 fixieren: Varianz des Faktors = erklärte Varianz dieses Items
Erwartungswert auf 0 fixieren oder Intercept eines reliablen Referenzitems auf 0 fixieren: Erwartungswert des Faktor = Mittelwert dieses Items (nur, wenn Item auch Referenz für Varianz ist)
Wie viele Freiheitsgrade gibt es für dieses Modell?
Rechnung: df = s - t
(auf die 6 im Zähler kommt man, da es 6 Variablen gibt)
t = 6 + 4 + 2 + 1 = 13
(dies sind die Parameter, die im Modell bunt eingezeichnet sind)
df = 21 - 13 = 8
Was macht die Maximum-Likelihood Methode?
Maximiert die Wahrscheinlichkeit, dass bei Modellgültigkeit in der Population die empirische Kovarianzmatrix resultiert
Benötigt intervalskalierte und normalverteilte Daten
Fehlende Normalverteilung führt zu falschen Schlussfolgerungen hinsichtlich ParameterRelevanz und Gültigkeit des Modells
Was messen die einzelnen Tests genau?
χ²-test: Prüft inferenzstatistisch die H0 (S = Σ)
RMSEA: Maß zur Ähnlichkeit von S und Σ basierend auf nicht-zentraler χ²-Verteilung
CFI: Vergleich des Modells mit einem Modell, in dem alle Variablen unabhängig sind
SRMR = Standardisierte durchschnittliche Different aus S und Σ
Wodurch zeichnen sich geschachtelte Modelle aus?
Nur hinsichtlich der Modellrestriktionen verschieden
Beurteilung durch χ²-Differenztest
Vergleicht die χ²-Werte beider Modelle -> Differenz ist ebenfalls χ²- verteilt
Sig.: restriktiveres Modell passt schlechter zu den Daten
Wodurch zeichnen sich nicht geschachtelte Modelle aus?
Verschiedene Anzahl von Variablen und Faktoren
Beurteilung durch AkaikeInformationskriterium und Bayes‘schem Informationskriterum: beziehen Modellfit und Sparsamkeit (df) ein
Kleinere Werte sind besser -> sparsame Modelle werden bevorzugt.
Was ist Residualvarianz?
Die Residualvarianz (auch bekannt als Varianz der Fehler oder Varianz der Reste) ist ein statistischer Begriff, der in der Regressionanalyse verwendet wird, um die Streuung der tatsächlichen Werte eines Ausgangsvariablen um ihre geschätzten Werte zu messen. Diese "Reste" repräsentieren die Unterschiede zwischen den beobachteten Datenpunkten und den durch die Regressionsmodelle vorhergesagten Werten.
Was kann man hier für einen fit erkennen?
X²/df, muss kleiner 2 für gut und kleiner 3 für akzeptabel.
Last changed5 months ago