Ausgangsprobleme von MVB-Modellen
Dekomponierungsproblem
keine Prozess- bzw. Systemreinheit von AVn (bestimmte Beobachtung kann durch unterschiedliche Prozesse zustande kommen)
-> Wie lässt sich die AV in prozessreine Maße für bestimtme Prozesse dekomponieren?
Bedeutsamkeitsproblem
alternative AVn können ein gleichermaßen plausibler Indikator für das interessierende Konstrukt sein
-> Wahl zwischen AVn kann Ergebnisse massiv beeinflussen
MVB-Modelle
Multinomiale Verarbeitungsbaummodelle
Klasse formaler Modelle, die kognitive Prozesse annehmen, welche mit bestimmten Wahrscheinlichkeiten auftreten
Wahrscheinlichkeiten werden mittels beobachtbarer experimenteller Daten geschätzt
stochastische Modelle
theoriegeleitete Messmodelle
jeweils für ein bestimmtes Paradigma zugeschnitten
gehört zur Klasse der konfirmatorischen Analyseverfahren (wie z.B. Strukturgleichungsmodelle oder Latente Klassenanalyse)
Modell wird a priori formuliert
gibt an, welche Sequenzen unbeobachtbarer Prozesse bestimmte beobachtbarer Ereignisse hervorrufen können
Anforderungen an die Daten für MVB-Modelle
kategoriale (diskrete) Daten
i.d.R. mit wenig Kategorien
Allgemeine Zielsetzung von MVB-Modellen
theoretische Erklärung von Kategoriewahrscheinlichkeiten (bzw. deren Unterschiede)
mithilfe von latenten Parametern (= Wahrscheinlichkeiten psychologischer Zustände/Prozesse)
Paradigma für ein One-High Threshold Model (Blackwell, 1963)
Ja-Nein-Rekognitionstest
2 Bedingungen:
alte Items (zuvor gelernt)
neue Items/Distraktoren (zuvor nicht gelernt)
Kategoriale AV für beide Bedingungen
“Alt” vs “Neu”
One-High-Threshold-Model
Two-High-Threshold Model
Paradigma für ein Storage-Retrieval Modell
freie Reproduktion einer zuvor gelernten Wortliste
Bestandteile der Wortliste:
Wortpaare (z.B. Rose und Tulpe)
Einzelwörter ohne semantischen Bezug zu anderen Listenwörtern
Ein Primacy- und ein Recency-Buffer
2 Bedingungen
Wortpaare
Einzelwörter
Storage-Retrieval-Model
Mdellannahme: 1 Versuchsbedingungen
(Einfaches multinomiales Modell)
1 Kategoriale Variable mit J Kategorien und Stichprobenhäufigkeiten n in den J Kategorien (N = Summe aus nj)
Stichprobenhäufigkeiten resultieren aus N-maligem unabhängigem Ziehen aus einer Grundgesamtheit, in der J Kategorien die Wahrscheinlichkeiten pj haben, wobei die Summe aller p = 1
pi bezeichnet den Vektor dieser Wahrscheinlichkeiten
Stichprobenhäufigkeiten folgen dann einer Multinomialverteilung:
Modellannahme: Mehrere Versuchsbedingungen
(Verbundenes multinomiales Modell)
pro Bedingung k wird eine kategoriale Variable mit J(k) Kategorien beobachtet
Für jede der K Versuchsbedingungen gilt ein Multinomialverteilungsmodell wie hier:
für die Beobachtungen in den unterschiedlichen Versuchsbedingungen wird Unabhängigkeit angenommen
Parametrisierte multinomiale Modelle
Einfaches oder verbundenes multinomiales Modell
die Wahrscheinlichkeiten p werden als Funktionen sig. latenter Parameter q ausgedrückt -> pJ = fJ(q1, q2, …, qS)
—> diese Funktionen bzw. Gleichungen sind die Modellgleichungen
Menge aller möglichen Wertekombinationen der S latenten Parameter heißt Parameterraum W des Modells
Begriffe in der Übersicht
Kategorien J einer Variablen
Stichprobenhäufigkeiten n (Summe aller n = N)
Wahrscheinlichkeiten p (Summe aller p = 1)
Versuchsbedingung k (Summe aller k = K)
latente Parameter q
p = f(q)
Parameterraum W
MVB-Modelle nehmen an, dass die Kategoriewahrscheinlichkeiten pj als Polynome in den Modellparametern qs und ihren Komplementen (1-qs) darstellbar sind.
Warum?
Modelle mit diesen Eigenschaften lassen sich als binäre probabilistische Ereignisbäume (kognitive Verarbeitungsbäume) repräsentieren
Parameterschätzung
Problem: Vektor von Parameterwerten soll so geschätzt werden, dass die vorgegebene Distanzfunktion zwischen den beobachteten Kategoriehäufigkeiten bei Modellgültigkeit ein Minimum annimmt
häufig verwendete Distanzfunktion: Likelihood-Quotenstatistik G²
asymptotisch Chi²-verteilt
Modellvergleiche (bei hierarchischen Modellfamilien)
Vergleich eines Modells MB mit einem alternativen Modell MA, wenn MB auf die gegebenen Daten passt
also wenn G²(MB) nicht signifikant ist
typischer Fall: MA ist ein Spezialfall von MB
= “hierarchische Modellfamilie”
G² verhält sich additiv
Wenn MA und MB gelten, sind G²A mit dfA und G²B mit dfB Chi²-verteilt
außerdem ist ihre Differenz Chi²-verteilt!
daher auch dfA-B = dfA-dfB
Modellvalidierung: Ein MVB-Modell sollte…
vor dem Hintergrund bislang nicht verworfener Theorien oder Hypothesen begründbar und plausibel sein
typische Datensätze in dem modellierten empirischen Paradigma adäquat beschreiben (-> Test soll NICHT signifikant werden)
experimentell validiert sein
schwaches Kriterium: Für jeden Modellparameter sollte mind. 1 UV benennbar sein, mit der der Parameter in vorhersagbarer Weise beeinflusst werden kann
strenges Kriterium: Für jeden Modellparameter sollte mind. 1 UV benennbar sein, mit der der Parameter in vorhersagbarer Weise beeinflusst werden kann, während alle anderen Modellparameter durch diese UV unbeeinflusst bleiben
Identifizierbarkeit von MVB-Modellen
Voraussetzung für statistische Analysen
definiert als der Parameterraum W für MVB-Modelle
—> “Datenraum”: Parameterraum P des multinomialen Rahmenmodells ist die Menge möglicher Vektoren p von Kategoriewahrscheinlichkeiten der beobachteten diskreten Variablen
Notwendige Bedingung: nicht mehr Parameter als unabhängige Kategoriewahrscheinlichkeiten
Hinreichende Bedingung: Beobachtbare Äste
alle Äste münden in unterschiedliche empirische Kategorien ein
Wichtige Charakteristika eines MVB-Modells
theoriebasierte Annahmen
Identifizierbarkeit
Modellgüte
Validität
Nützichkeit
Source Monitoring
mentale Prozesse, die daran beteiligt sind, eine Information ihrer Quelle oder ihrem Ursprung zuzuordnen
Datenstruktur eines Experiments zum Source Monitoring
Two-High-Threshold MVB-Modell des Source Monitoring
(2HTSM, Bayen et al.)
Experiment 1: Empirische Validierung des Modells
Ähnlichkeit von Zielitems und Distraktoren sollte den Itemrekognitionsparameter D beeinflussen
Ähnlichkeit der Quellen sollte den Quellengedächtnisparameter d beeinflussen
3x3 Versuchsplan mit n = 216
-> Quellengedächtnismanipulation wirkt sich auf das Quellengedächtnis aus & nicht auf die Itemrekognition
-> Manipulation der Itemähnlichkeit wirkt sich auf die Itemrekognition aus & nicht auf das Quellengedächtnis
—-> D und d sind damit erfolgreich validiert
Theoretisches Rahmenmodell zum Source Monitoring (Johnson et al)
Urteile, die auf phänomenologischen Merkmalen der Quellen basieren (z.B. perzeptuell, räumlich, zeitlich)
Urteile, die auf Vorwissen basieren (z.B. Tom muss so etwas gesagt haben, weil er als einziger so etwas sagen würde)
Experiment 2: Modellanwendung
Nutzen Menschen semantisches Wissen bei Quellenurteilen?
24 VPn, 96 Aussagen, 2 Quellen einer Aussage
Innersubjektfaktor: Typikalität der Aussagen
Arzt vs. Anwalt vs. neutral
Hypothese: Wenn Menschen schemabezogenes Wissen beim Source Monitoring nutzen, sollte die Quellenidentifikationsrate für die Items höher ausfallen, die typisch für Ihre Quelle sind.
-> signifikante Interaktion Quelle x Typikalität
-> Ratebias gemäß MVB-Modell erfüllt (Ratewahrscheinlichkeit unterschiedlich für die 3 Bedingungen)
Experiment 3
gleicher Versuchsplan wie in Experiment 2, aber die Schemata werden schon während der Enkodierung aktiviert
-> Interaktion Quelle x Typikalität nicht signifikant
-> Ratebias nicht modellkonform (sprich: in allen 3 Bedingungen wurde gleich geraten)
Fazit Experimente 2 und 3
Schemata während Enkodierung aktiviert (Exp.3)
-> Null-Kontingenz kann leichter erkannt werden
-> kontingenzbasiertes Raten
-> kein schemabasierter Ratebias
Schemata erst während Abruf aktiviert (Exp.2)
-> wahre Kontingenz schwerer zu erkennen
-> daher stärkerer Verlass auf schemabasierte Erwartungen
-> schemabasierter Ratebias
Fazit Source Monitoring
Das 2HTSM-MVB-Modell des Source Monitoring wurde erfolgreich validiert
Es gibt mehrere identifizierbare Submodelle
Das Modell erlaubt es uns, Gedächtnis- und Urteilsprozesse getrennt zu untersuchen
Last changed2 years ago