Multinomiale Verarbeitungsbaum-Modelle
Englisch: Multinomial Processing Tree Models (MPT-Models)
• MPT Modelle schätzen Wahrscheinlichkeiten für verschiedene latente kognitive
Prozesse Schritte („Äste“) in einer Informationsverarbeitungskette
• Diese Schätzung beruht auf beobachteten Antworthäufigkeiten in verschiedenen
Versuchsbedingungen
• Beispiel: Das 1-Hochschwellemodell (Swets, 1961)
– Wie wahrscheinlich ist es, einen gelernten Stimulus wiederzuerkennen
– Wie wahrscheinlich wird bei einem nicht erkannten Stimulus „bekannt“ geraten?
Beispieldaten einer Rekognitionsaufgabe ()
• 30 gelernte Wörter (Targets) und 30 neue Wörter (Distraktoren) werden präsentiert
Mathematische Modellierung psychologischer Prozesse (5)
Mathematische Modellierung psychologischer Prozesse
(1) Theoretische Modellentwicklung
(2) Mathematische Formulierung
(3) Anpassung des Modells an empirische Daten
• Parameterschätzung
• Bestimmung des „goodness of fit“
(4) Modellvalidierung
(5) Ggf. Anpassung / Erweiterung eines Modells
Schritt 1: Theoretische Annahme des 1HT (high-threshold) Modells
• Zwei kognitive Zustände:
(1) Sichere Wiedererkennung (Die „Hochschwelle“ wurde überschritten)
(2) Unsicherheit (Die „Hochschwelle“ wurde nicht überschritten)
—>Der Proband muss raten
• Die angenommenen Verarbeitungsbäume
Schritt 2: Mathematische Formulierung (2)
Schritt 2: Mathematische Formulierung
• Der Verarbeitungsbaum muss in Formeln übersetzt werden
– Wahrscheinlichkeiten innerhalb eines Pfads werden multipliziert
– Wahrscheinlichkeiten unterschiedlicher Pfade werden addiert
Schritt 3a: Parameterschätzung ()
Schritt 3a: Parameterschätzung
• Es gibt 2 freie Parameter (𝑟 und 𝑔) und 2 „Datenpunkte“ (𝑝(ℎ𝑖𝑡) und 𝑝(𝑓𝑎𝑙𝑠𝑒 𝑎𝑙𝑎𝑟𝑚))
• Daher ist das Modell genau identifiziert —>Die Parameter können direkt durch Umformung berechnet werden
• Modellformeln
• Berechnung der Parameter durch Umformung:
Parameterwerte der Beispieldaten
• Interpretation
– 55% der alten Stimuli werden sicher erkannt
– Bei neuen Stimuli und nicht erkannten Stimuli wird mit
33% Wahrscheinlichkeit „alt“ geraten
Schritt 3a: Parameterschätzung: Identifikation (3)
• Ein Modell ist unteridentifiziert, wenn die Modellformeln keine eindeutige Abbildung
der Daten auf die Modellparameter erlauben (weniger Daten als Parameter)
– Keine Berechnung der Modellparameter möglich
• Ein Modell ist identifiziert, wenn die Modellformeln eine eindeutige Abbildung der
Daten auf die Modellparameter erlauben (gleich viel Daten wie Parameter)
– Berechnung der Modellparameter ist möglich; aber keine Modelltest
• Ein Modell ist überidentifiziert, wenn mehr unabhängige Antwort-Kategorien als
Parameter vorliegen.
– Schätzung der Modellparameter mit Konfidenzintervallen
– Modelltest möglich —>Wie gut passt das Modell zu den Daten?
Herstellung der Identifizierbarkeit ()
Herstellung der Identifizierbarkeit
• Vereinfachung eines Modells —>Fixierung von Parametern durch zusätzliche Annahmen
– Gleiche Ratewahrscheinlichkeit für alte und neue Stimuli 𝑔𝑎 = 𝑔𝑛
– Annahme eine fixen Ratewahrscheinlichkeit: 𝑔 = 0.5
• Anreicherung der Daten —>Zusätzliche Versuchsbedingungen einführen
– Blöcke mit unterschiedlichen Basisraten für alte Stimuli (25% alt, 50% alt, 75% alt): 𝑟 ist konstant über alle Blöcke; 𝑔 darf sich
unterscheiden
– Stimuli mit unterschiedlichen Lernraten (einmal vs. zweimal präsentiert in der Lernphase): 𝑟 darf sich zwischen den Stimulustypen unterscheiden; 𝑔 ist konstant
Schritt 3b: Modelltestung (Goodness-of-fit Test) ()
• Für die Modelltestung wird aus dem Vergleich beobachteter und vorhergesagter Häufigkeiten die 𝐺2 Statistik berechnet
• 𝐺2 folgt unter der 𝐻0 (Das Modell passt zu den Daten) einer 𝜒2 Verteilung und ermöglicht so einen Signifikanztest (𝑑𝑓 = 𝑁𝑑𝑎𝑡𝑎 − 𝑁𝑝𝑎𝑟𝑎)
• Ein signifikantes Ergebnis zeigt, dass die beobachteten Antworthäufigkeiten durch
das Modell nicht adäquat abgebildet werden können
• Gründe für schlechten Fit
– Das Modell beschreibt nicht die tatsächlich ablaufenden Prozesse —>neue/andere Pfade einbauen
– Parameterheterogenität zwischen Probanden—>Einführung latenter Klassen (Klauer, 2006)
• Der Fit von hierarchisch genestete Modelle können ebenfalls mit einem χ² Test verglichen werden (difference statistic: Δ𝐺2)• Nicht-genestete Modelle können mit Informationskriterien (AIC, BIC) verglichen
werden (kleiner Werte zeigen einen besseren Fit an)
Schritt 4: Modellvalidierung (4)
• Ein guter fit des Modells zu den Daten alleine ist noch kein Beweis für die Gültigkeit eines Modells!
• Empirische Validierungen sind notwendig!
• Kriteriumsvalidität der Parameter
– Z.B. Negative Korrelation von 𝑟 und Alter
• Selective Influence Studies
– Z.B. Höheres 𝑟 bei wiederholter Darbietung in der Lernphase
– Z.B. Höheres 𝑔, wenn mehr Targets als Distraktoren präsentiert
werden (30 Targets : 10 Distraktoren)
Schritt 5: Modellanpassung (3)
Schritt 5: Modellanpassung
• Viele alternative Modelle denkbar, z.B. …
• Zwei-Hochschwellenmodelle (2HT-Modell): Drei kognitive Zustände (sicher alt,
sicher neu, unsicher)
• Tiefschwellenmodell (LT-Modell): Eine untere Aktivierungs-Schwelle für sichere „neu“
Entscheidungen
• …
Programme zur Modellschätzung ()
• Es gibt eine Reihe von freien Programmen für die Anpassung multinomialer Verarbeitungsbäume
• Eine benutzerfreundliche Anwendung ermöglicht z.B. das Programm HMMTree
(Stahl & Klauer, 2007)
– Ermöglicht auch die Modellierung latenter Klassen Es werden Gruppen von
Probanden gebildet, die unterschiedliche Parameterwerte haben
– Download von HMMTree: http://methexp.uni-koeln.de/de/research/hmmtree/
Modelgleichungen in HMMTree ()
Modelgleichungen in HMMTree
• Eingabe in einer Textdatei (*.eqn)
• Erste Zeile: Anzahl der Gleichungen
• Ab der zweiten Zeile: Gleichungen aller Verarbeitungspfade (Tabulator getrennt!)
Daten in HMMTree ()
• Eingabe in einer Textdatei (*.mdt)
• Alle Datensätze werden in einer Datei präsentiert
– 1. Zeile: Kommentar
– Ab der 2. Zeile: Daten (Tabulator getrennt!)
• Antwortkategorie (wie bei den Gleichungen)
• Anzahl der Antworten
• Alle Vpn müssen die gleichen Gesamtzahlen
pro Baum aufweisen (24 alt; 24 neu)
– Trennung zwischen den Probanden mit „=„
Durchführen der Analyse ()
Durchführen der Analyse
• Laden einer Equation-Datei
• Laden einer Daten-Datei
• Ggf. Spezifizieren von Modellrestriktionen
• Berechnung starten mit Run
Ergebnisse
Zusammenfassung ()
Zusammenfassung
• Multinomiale Verarbeitungsbaummodelle schätzen die Wahrscheinlichkeiten für latente kognitive Prozesse aus beobachteten Antworthäufigkeiten
• Dazu müssen Verarbeitungsbäumen mit möglichen Verarbeitungspfaden spezifiziert werden
• Parameter können nur berechnet werden, wenn dass Model identifiziert ist (𝑛𝑑𝑎𝑡𝑎 ≥ 𝑛𝑝𝑎𝑟𝑎)
• Der Modellfit kann nur geprüft werden, wenn das Modell überidentifiziert ist (𝑛𝑑𝑎𝑡𝑎 ≥ 𝑛𝑝𝑎𝑟𝑎) —>Berechnung der 𝐺2 Statistik
• Für Modellvergleiche können auch die Informationskriterien (AIC, BIC) verwendet werden
• Für die MPT Analyse kann z.B. das Programm HMMTree verwendet werden
Last changed2 years ago