Rating-Scale-Modell (RSM) nach Andrich
äquidistante Kategorien
Annahme: Invarianz der Kategorienparameter
Kategoriewahrscheinlichkeit P(n)
Veranschaulichung und Parametisierung = in Beziehung zueinander
Eigenschaften der Parameter —
> Schwierigkeitsparamter = nach Andersen Summe der Itemparamter in Modell nach Masters
—> Schwierigkeitsparamter = nach Andrichs Durchschnitt Parameter im Modell nach Masters
Graded-Response-Modell (GRM) nach Samejima
ganze Modellfamilie für Items mit polytopen, geordneten Itemantworten
Score Category Response Function (SCRF) = Kategoriewahrscheinlichkeit
Antwortmusterwahrscheinlichkeit
kognitiver Prozess = endliche Zahl von Stufen genommen
Processing Function M = beschreibt Wahrscheinlichkeit, Stufe k bei Fähigkeit n und gemeisterten Stunden k-1 zu erreichen
Kategorieantwortwahrscheinlichkeit P (n)
Sequential Models für geordnete kategoriale Variablen
Abhängigkeitsstruktur innerhalb Items und kognitive Prozesse
Schrittweises Lösen von Items
binäre Modellierung: nächste Stufe nehmen oder nicht
Einführung in multidimensionale Modelle der IRT
Grundgedsnke mIRT Modelle
—> Erweiterung der bisherigen Modelle
—> mehrere Merkmale gibt, die im Zusammenhang zur gezeigten Antwort stehen
—> Ziel: Einfluss von mind. 2 Merkmalen auf Antwortwahrscheinlichkeit beschreiben
Bifaktormodelle
—> Verallgemeinerung GRM zum mGRM
—> kumulative Wahrscheinlichkeiten im mGRM
JML = Joint-Maximum-Likelihood-Schätzung
—> gleichzeitige Schätzung von Item- und Personenparameter
—> Zahl der zu schätzenden Parameter abhängig von Stichprobengröße
—> kann zu inkonsistenten Parameterschätzungen führen
CML-Schätzung (Conditional-Maximum-Likelihood-Schätzung)
—> Schätzung Itemschwierigkeit/Schwellenparameter ohne Schätzung Personenparameter
MML-Schätzung (Marginal-Maximum-Likelihood-Schätzung)
—> für zwei-, drei- oder mehrparametrische Modelle (bei CML nicht)
—> individuellen Personenwerte als Realisationen einer latenten Zufallsvariable mit bestimmten Verteilung aufgefasst
Verfahrender Parameterschätzung in der IRT: Überblick
alle Schätzwerte basierten auf ML-Methoden
Baye’sche Schätzverfahren
Maximum-Likelihood-Schätzung (ML-Schätzung)
Likelihood-Funktion = Wahrscheinlichkeits- bzw. Dichtefunktion für Ereignis Y = y in Abhängigkeit von zu schätzenden Parameter
ML-Schätzer = Wert von zu schätzenden Parameter im Parameterraum der LikelihoodFunkton für Ereignis Y = y
Prä-facto-Perspektive der Wahrscheinlichkeit
—> Wahrscheinlichkeitsaussagen nur für Ereignisse sinnvoll, die noch nicht eingetreten sind
Joint-ML Schätzung (JML)
gemeinsame Schätzung von Item- und Personenparametern
Vorteil: keine Verteilungsannahmen in Bezug auf latente Variablen gemacht
—> JML-Schätzung auf mehrdimensionale Modelle erweitert
Nachteil: Zahl der zu schätzenden Parametern von Stichprobengröße abhängig, da Zahl der Personenparameter steigt
Conditional-MC (CML) Schätzung
Suffiziente Statistiken —> Summenscore als suffiziente Statistik im Rasch-Modell —> Suffizienz = Inferenz in parametrische Modellen
S(v)-bedingte Antwortwahrscheinlichkeiten im Rasch-Modell —> Antwortwahrscheinlichkeit P(Y) für jede Person v bez+glich Antwortmusters y —> Satz der totalen Wahrscheinlichkeit —> symmetrische Grundfunktion = Ausdruck im Nenner
Marginale ML (MML) Schätzung
konsistente Itemparamterschätzung von ein- und mehrparametrischen IRT-Modelle —> Verteilung der latenten Variablen 0 wird modelliert
gemeinsame Verteilung manifester und latenter Variablen
Anwendung des Bayes-Theorems in MML Schätzung
18.3 Bayes’sche Schätzverfahren
Ansatz zur Bestimmung der statistischen Inferenz unbekannter zu schätzender Größen anhand beobachteter Daten
Unterscheidung zur klassischen Statistik
subjektive Wahrscheinlichkeit = solange gesuchtes Parameter unbekannt ist
Bayes-Inferenz auf Basis der A-posteriori-Verteilung
A-posteriori-Verteilung: normiertes Produkt aus Likelihood-Funktion und A-priori-Verteilung
—> unbedingte Wahrscheinlichkeit der beobachteten Daten = Normierungskonstante
A-posteriori-Verteilung als Mischung aus Vorwissen und empirischer Information
Spezifikation der A-priori-Verteilung
Gewichtung der Vorinfo durch A-priori-Verteilung
Wahl zwischen alternativen A-priori-Verteilungen
Parameterschätzung
Metropolis Hastings-(MH) Algorithmus
Vorschlagsdichte = zufälliger Wert gezogen
Akzeptanzverhältnis und A-Posteriori-Dichte berechnet
Akzeptanzwahrscheinlichkeit als Wert angenommen
Schritt 1-3 so lange wiederholt bis Maximalzahl T oder Abbruchkriterium erfüllt
Gibbs-Sampler
Faktorisierungssatz der Wahrscheinlichkeit
Algorithmus des Gibbs-Samplers
Spezialfall des MH-Algorithmus
für Parameterschätzung in IRT
Vorteil: muss nicht zwischen inzidentiellen und strukturellen Parametern unterschieden werden
Reliabilitätsbeurteilung in der IRT
Testinformation und Standardfehler
Variable Standardfehler = Standardfehler der Personenparameter variieren in Abhängigkeit der latenten Variablen
bedingte Varianzfunktion = Variabilität hinsichtlich Antwortkategorien von Item i in Abhängigkeit der latenten Variablen an
Iteminformationsfunktion = ist gleich der mit quadrierten Itemdiskrimination gerichteten bedingten Varianzfunktion
Beziehung Standardfehler- und Testinfofunktion
Präzision = negative zweite Ableitung der Schätzfunktion
individuelle A-posteriori-Standardabweichung als Maß der Ungenauigkeit der Personenparameterschätzung
19.1 Was ist computerisiertes adaptives Testen?
spezielles Verfahren zur computerbasierten Messung individueller Merkmalsausprägungen
Auswahl der zur Bearbeitung vorgelegten Items orientiert sich am vorherigen Antwortverhalten
adaptiver Algorithmus = Regelsystem, das zu Beginn und während des Tests die Itemauswahl trifft
Computerisiertesadaptives Testen
Grundgedanke
Einsatz bei IRT
geeignete Testwerte und ungeeignete
Itempool = Sammlung von Items —> Itemkalibrierung = Itempool kalibriert und prüfen dass IRT Annahmen gelten
psychometrisches Modell
typischer Ablauf (s. Abb.)
Bausteine
Itempool —> Menge der Items
Itemauswahl zu Beginn Testung (Testbeginn)
Schätzung individuelle Ausprägung des zu messenden Merkmals
Auswahl von Items während Testung
a) Voll adaptive Itemauswahl
b) eingeschränkte adaptive Itemauswahl
Umgang mit Einschränkungen bei Itemauswahl
Kriterien zur Beendigung der Testung
Abbruchkriterien
1) bestimmte Anzahl von Items vorgelegt wurden
2) Standardfehler der Personenparameterschätzung klein ist
3) max. Testzeit erreicht
4) alle im Itempool verfügbaren Items vorgelegt wurden
Auswirkungen des adaptiven Testens - Vorteile/ nachteile
Vorteile: hohe Testsicherheit, standardisierter Testablauf, individuumbestimmte Testgeschwindigkeit, schnelle/ fehlerfrei Testwertbestimmung, Auswertung ohne Fachwissen, schnelles Ergebnis, Verwendung anderer Itemformate
Nachteile: hoher Entwicklungsaufwand, Bereitstellung PC, Fairness hinsichtlich Persönlichkeitsmerkmale
Messefizient —> Grad der Genauigkeit von Testwerten —> Verringerung der Anzahl vorzugebender Items —> vergleichbare Standardfehler
Validität
Motivation zur Testbearbeitung
Last changed2 years ago