Was ist Joint Action? /
Worauf bezieht es sich?
Joint Action bezieht sich auf eine bestimmte Form
sozialer Interaktion, bei der
zwei oder mehr Akteure ihre Handlungen absichtlich
räumlich und zeitlich koordinieren, um ein
gemeinsames Ergebnis entweder
direkt oder indirekt durch
Arbeitsteilung zu erzielen.
“Successful joint action depends on the efficient coordination of participant agents’ goals, intentions, plans, and actions.”
(Clodic et al., 2017)
3 Ziele
Repräsentationen miteinander teilen
Handlungen vorhersagen
Vorhergesagte Effekte von eigenen und anderen Handlungen integrieren
Klassische Joint Action Theorien
Voraussetzung
Probleme (2)
= Joint Action beruht auf geteilten Intentionen, die helfen die gemeinsamen Handlungen zu koordinieren.
Voraussetzung: komplexe Metarepräsentation der Intentionen, Pläne, Absichten
Probleme:
Theorie erklärt nicht, wieso junge Kinder und Tiere auch in Joint Action partizipieren können
Theorien erklären nicht Vorhersagen, Monitoring und Handlungsanpassungen während tatsächlicher Handlungsausführung
Minimalistisch:
- Tollefsen (2005), Fiebich & Gallagher (2013): Joint Attention als minimale Joint Action
- Vesper et al. (2010): keine Zuschreibung von Intention nötig (aber hilfreich): minimale Komponenten
-Michael (2011): Geteilte Emotionen als Basis für Joint Action
Vorteile: (2)
=Joint Action benötigt keine geteilte Intention
Joint Attention als minimale Joint Action: Personen müssen nicht die mentalen Zustände voneinander repräsentieren, sondern wahrnehmen wie/was sie wahrnehmen
Minimale Komponenten: Repräsentation, Vorhersage- und MonitoringProzesse, Coordination Smoothers
Repräsentation der eigenen Aufgaben und Ziele
Vorhersage der sensorischen Konsequenzen der eigenen und anderen Handlungen
Monitoring der tatsächlichen sensorischen Konsequenzen, um Vorhersagefehler zu identifizieren
Coordination Smoothers zur Simplifizierung der Koordination
Vorteile:
-Erklären weniger komplexe Joint Action Fälle
-Können klassische Ansätze vervollständigen
Unsicherheiten in der Joint Action
können die Vorhersagbarkeit, die Repräsentationen und die Koordination beeinträchtigen
(3)
Motivationale Unsicherheit: Unsicherheit, ob die Interessen & Ziele des anderen Akteurs mit unseren Interessen & Zielen übereinstimmen und wie stabil diese Interessen & Ziele sind
Instrumentelle Unsicherheit: Unsicherheiten darüber, wie das Ziel erreicht werden kann, welcher Plan verfolgt werden soll, wie die Rollen verteilt werden, wann und wo gehandelt wird
(durchführbarkeit)
„Common Ground“ Unsicherheit: Unsicherheit darüber, wie viel von den gemeinsamen Zielen, Plänen, ect. „Common Ground“ ist, also beiden Akteuren bewusst ist
—> Die Kategorien überschneiden sich:
Es reicht für die Koordinierung nicht aus, dass wir tatsächlich motiviert sind, dieselben Ziele zu verfolgen, und dass wir hinreichend ähnliche instrumentelle Überzeugungen und Pläne haben, wie diese Ziele erreicht werden sollen → Es muss transparent sein, dass Motivationen und Pläne übereinstimmen
Koordinationsmechanismen
Mentale Repräsentationen bei Joint Action (3)
Sensomotorische Informationen teilen (6)
Grundsätzliche Mechanismen zur Unterstützung der Koordination (4)
Ziel der Joint Action- Gemeinsam ein Sofa von einem Zimmer ins nächste tragen Aufgaben
(Co-) Repräsentation- Das Sofa vorwärts oder rückwärts tragen
Monitoren- Fehler in der Leistung des Co-Akteurs erkennen
Joint Attention und geteilter Blick- Sich gemeinsam eines Hindernisses im Weg bewusst sein
Sensomotorische Vorhersage- Bewegungsrichtung des Co-Akteurs vorhersagen
Sensomotorische Kommunikation- Den Co-Akteur in eine bestimmte Richtung schieben
Haptische Kopplung- Fühlen, dass der Co-Akteur das Sofa schiebt
Multisensorische Verarbeitung- Informationen unterschiedlicher Sinne integrieren
Emotionsausdruck und –verständnis- Wahrnehmen, wie erschöpft der Co-Akteur ist
Coordination Smoothers- Verhaltensvariabilität minimieren
Affordanzen- Einschränkungen durch verfügbaren Platz und Kraft des Co-Akteurs
Konventionen und Kultur- Konventionen bzgl. wer mehr Gewicht trägt
Verbale Kommunikation- Via Sprache kommunizieren, dass das Sofa abgesetzt werden soll
Modell zur Joint Action in der MRI
Joint Action in der MRI (3)
Fähigkeiten für die Joint Action: Roboter & Mensch müssen grundsätzliche Fähigkeit für Handlungen der Joint Action besitzen
Self-Other-Distinction: Beide Akteure müssen eigene Handlungen & Intentionen von Handlungen & Intentionen des anderen getrennt repräsentieren können
Handlungsverständnis: Sowohl Roboter als auch Mensch müssen fähig sein, die Handlungen und Intentionen des anderen Akteurs wahrzunehmen & zu verstehen
Der Roboter muss so ausgestattet sein, dass er die Handlungen des Menschen wahrnehmen und interpretieren kann
Der Roboter muss so handeln, dass es für den Menschen wahrnehmbar und interpretierbar und dadurch auch vorhersagbar ist
Unsicherheiten in der M-R-Joint Action
->Woher wissen wir das vom Roboter es so eingehalten wird:
Motivationale Unsicherheit:
Instrumentelle Unsicherheit:
„Common Ground“ Unsicherheit:
-> Kommuniktation
Kommunikation zur Reduktion von Unsicherheiten in der Joint Action
(2) Arten der Kommunikation
Ziele
Verbale Kommunikation
explizit
implizit
Non-verbale Kommunikation
Ziele: Reduziert Unsicherheiten, beeinflusst Motivation, Koordination, Vorhersage, Einstellung gegenüber Robotern
EINFÜHRUNG JOINT-ACTION
Breazeal et al. (2005)
Untersuchung ob implizites non-verbales Verhalten die Qualität der Joint Action verbessern kann
Hauptergebnisse:
Kritik:
Roboter in der IMP+EXP-Bedingung (ex- und implizite Kommunikation) signifikant besser verstehbar.
Probanden hatten ein besseres mentales Modell von dem Roboter in dieser Bedingung
Aufgaben konnten schneller erledigt werden, sowie Fehler schneller erkannt werden
Probanden haben sich natürlicherweise auf das Blickverhalten des Roboters verlassen , um Informationen über seinen Aufmerksamkeitsstatus zu erhalten
den sozialen Erwartungen der Menschen sollte bestmöglich entsprochen werden. wenn nicht , könnte das Verhalten auf den Menschen sonst verwirrend oder irreführend sein
begrenzte Repräsentation der übrigen Altersklassen außer 20-40 ->schwerere Übertragbarkeit der Ergebnisse auf eine breitere Bevölkerungsschicht
kontrollierten Umgebung-> eingeschränkte Realitätsnähe
Fokus der Studie auf humanoiden Roboter Leonardo-> eingeschränkte Übertragbarkeit auf andere Robotermodelle
umfassendere Analyse verschiedener nonverbaler Signale für zusätzliche Einblicke: Kommunikationsvielfalt
Glasauer et al. (2010)
Untersuchung der zeitlichen und räumlichen Koordination bei einer Joint Action
Human-Human:
Beobachter können das Ende einer Handlung, z. B. einer Handbewegung, vorhersagen. Nur Anfangsbewegungskinematik wie Richtung und Beschleunigung sind notwendig, um Endposition und Bewegungsdauer abzuschätzen.
Menschen erwarten eine natürliche Handübergabe-Position etwa in der Mitte zwischen den Akteuren (Huber et. al., 2009)
Ein optimaler Schätzprozess bestimmt, ob die erwartete und geschätzte Handübergabe-Position optimal kombiniert werden sollten. Die Reaktionszeit steigt, wenn erwartete und geschätzte Endpunkte unterschiedlich sind.
Mit zunehmender Versuchszahl neigen Probanden dazu, Bewegungen mit einer weniger genauen Schätzung der Handübergabe-Position zu initiieren, was zu schnelleren Reaktionen führt.
Human-Robot:
Reaktionszeiten kürzer wenn Bewegungen vom Roboter weniger ruckartig sind,
Aussehen scheint eine Rolle zu spielen, Funktion von Spiegelneuronen als Grund genannt
Unterstützt Hypothese, dass Menschen Bewegungen vorhersagen können, wenn diese menschenähnlich sind
laufende Person/Tisch:
Ablegen bei Tisch schneller: Individuelle Werte der Entfernung der Person zum Tisch korrelieren --> scheinen nicht von sozialen Faktoren abzuhängen
Montage:
Präzise zeitliche Abstimmung von Handlungen des Roboters in Assistenzszenarien ist ein entscheidender Schritt zur Anpassung technischer Systeme an menschliche Benutzer
Studie entspricht nicht unseren (psychologischen) wissenschaftlichen Standards:
Keine Angabe über Anzahl der Versuchspersonen
Keine testbare a-priori Hypothesen aufgestellt oder zumindest nicht angegeben
Keine Angabe von Signifikanzwerten Nennung von Ergebnissen teilweise ohne genaue Herleitung
Ergebnisse aus den Human-Robot Übergabe Versuch basierend auf einem humanoiden Roboter
Es fehlt Angabe wie menschlich Roboter ist bzw. als wie menschenähnlich er wahrgenommen wird
Ein Manipulation Check wäre hier sinnvoll gewesen, um zu schauen, ob die VP die beiden Roboter tatsächlich unterschiedlich anthropomorph wahrgenommen haben
Es wurde keine genaue Einschätzung angegeben, wie nahe Simulation an realen Werten ist und inwieweit diese einsatzbereit ist
Spiegelneurone =
1992 bei Affen (3)
bei Menschen
Ort
Hauptfunktion
(2)
Wann keine Aktivität?
=Neuronen, die bei zielgerichteter Handlung und Wahrnehmung der Handlung aktiviert werden
(1) Affe im Ruhezustand (keine Aktivierung)
(2) Affe greift Gegenstand (Aktivierung)
(3) Affe beobachtet Greifbewegung (Aktivierung)
bei Menschen:
Ort: Befinden sich im prämotorischen Kortex, parietalen Bereichen sowie im superioren temporalen Sulcus (STS)
Hauptfunktion: Verständnis, was eine andere Person tut → Bewegungen werden als eigene Handlungen simuliert und so leichter verstanden („DirectMatching Hypothese“)
Grundlegend für soziales Verständnis und soziale Interaktion
Hilfreich für Joint Action
wenn Objekt mit einem Werkzeug gegriffen wurde
SPIEGELNEURONE
Tai et al. (2004)
Nur bei der Beobachtung biologischer Handlungen?
Linker prämotorischer Kortex zeigt signifikant erhöhte Aktivierung bei Beobachtung manueller Greifbewegungen durch menschliches Modell, jedoch nicht durch Robotermodell.
Aktivierung anderer Hirnareale sowohl bei Mensch- als auch bei Robotermodell (jeweils Action vs. Static (unbewegt))
Im Vergleich zwischen Mensch- und Robotermodell keine signifikanten Aktivierungsunterschiede → Hirnareale reagieren auf Bewegung
Kleine Stichprobe und wenig Divers
Starke Abhängigkeit vom Design der Roboterhand? (Selbstkritik der Autoren) → Allgemeingültigkeit?
Was ist, wenn die Versuchspersonen nicht wissen, dass es sich um eine Roboterhand handelt?
Kontrolle durch Versuchsleiter offensichtlich: Roboter als Werkzeug?
Oberman et al. (2007)
Auch bei der Beobachtung robotischer Handlungen?
Mu-Unterdrückung mit und ohne Zielobjekt bei Robotern
Mu-Unterdrückung bei willentlicher und unwillentlicher Bewegung
Roboterhand und menschliche Hand: kein Unterschied in der Mu-Unterdrückung
Umsetzung der Willentlichkeit in Experiment 2
—> Faden an Hand lässt nicht direkt auf vollständige Kontrolle durch Faden schließen,
—> vor allem bei Schließbewegung der Hand
Kontrollbedingung: Videos mit schwarz-weißem Rauschen: keine natürliche Bedingung
Widerspruch zu Tai et al.: Weil Roboter als Werkzeug gesehen?
Sotaro Shimada et al. (2010)
Was ist, wenn ein Mensch robotische Handlungen ausführt?
Aktivierung der Spiegelneurone wird bei bestimmten Kombinationen von Erscheinung und Bewegungsarten beeinflusst
roboterartige Bewegungen eines Roboters führen zu Aktivierungen , roboterartige Bewegungen von Menschen hingegen zu einer Deaktivierung, und andersrum
Vermutung individueller Unterschiede bei der Aktivierung von Spiegelneuronen während der Beobachtung von Robotern: Je routinierter und selbstverständlicher der Umgang mit Robotern wird, desto stärker könnten die Spiegelneurone aktiviert werden
prämotorische Kortex reagiert besonders empfindlich auf die Bewegungsart, wenn in der beobachteten Szene ein (computeranimierter) Mensch agiert
andere Studien zum Teil widersprüchliche Ergebnisse
gute Einordnung in andere Studien
Motorische Simulation=
neuronale Grundlage =
Funktionen (3)
Effekte (2)
= Mechanismus, mit dem das Gehirn wahrgenommene Handlungen simuliert (z.B. repräsentiert, wie der eigene Körper bestimmte Bewegungen ausführen würde)
= Spiegelneurone
Funktionen
Vorbereitung des motorisches System auf potenzielle Handlungsausführung
Individuum mit Erleichterung sozialer Interaktion Informationen über Machbarkeit und Bedeutung der Handlung zu versorge
Erleichterung sozialer Interaktion:
Vorhersage des Ergebnisses einer Handlung → effektivere Koordination
besonders relevant für temporale Koordination bei Joint Action
Effekte:
Motorisches Priming (Automatische Imitation) -> Das Sehen einer Handlung erleichtert die Ausführung der gleichen Handlung (bottom-up Prozess)
Motorische Interferenz —> Das Sehen einer Handlung hindert die Ausführung einer anderen Handlung, da ein Top-Down Prozess die automatische Simulation kontrollieren muss, wodurch Kosten entstehen, die zum Interferenz-Effekt führen.
Motorische Simulation
Stürmer et al., 2000
Untersuchung von motorischer Imitation mit einem Stimulus-Response-Paradigma
Untersuchung des Einflusses aufgabenirrelevanter Stimuli auf die geforderte Reaktion
Aufgabenirrelevante Stimuli: (1)
Aufgabenrelevante Stimuli: (2)
Geforderte Reaktion durch VP auf blaue/rote Farbe: Handgesten nach Farbe
Gesten (2)
kongruent (z.B. rot + finger spreizen) + inkongruent (z.B. blau + Finger spreizen)
Ergebnisse:
Aufgabenirrelevante Stimuli: Handgesten
Aufgabenrelevante Stimuli: blaue vs. rote Farbe
Rote Farbe = Finger spreizen
blaue Farbe = Greifbewegung
Reaktionszeiten kürzer in kongruentem Trial und länger im inkongruenten Trial
- Motorisches Priming in kongruentem Trial
- Motorische Interferenz in inkongruentem Trial
MOTORISCHE SIMULATION
Sacheli et al. (2018)
Finden wir motorische Simulation auch in der Joint Action zwischen Menschen?
Welche Mechanismen unterscheiden interaktive von nicht-interaktiven Handlungen?
Dual Route Hypothese vs. Dyadic Motor Plan Hypotheses
Motor Simulation: Repräsentation des Verhaltens des Gegenüber um die interpersonale Koordination zu erhöhen
Dual Route Hypothese=
Handlungen anderer Leute löst automatisch eine
Handlungssimulation aus
− Aufgrund visuomotorischer Bottom-Up Assoziationen
Dyadic Motor Plan Hypotheses=
Handlungen der Partner*innen werden in gemeinsamen motorischen Plan integriert
− Plan - enthält Ziel der Joint Action (JA)
- ermöglicht Auswirkungen der Handlung der
anderen Person darzustellen und
vorherzusagen
−> Reaktion basiert auf Vorhersage gemäß dem übergeordneten JA Ziel
Nachweis für Dyadic Motor Plan Hypotheses als kognitives Modell zur Erklärung der Interaktion bei nicht-imitierenden Handlungen
Anstelle passiver Imitation versuchen Versuchspersonen Handlungseffekte in Bezug auf das gemeinsame Ziel hervorzusagen
− Kongruente Bewegungen nur relevant, wenn kein gemeinsames Ziel vorliegt
Nutzen für Interaktion von Artificial Agents und Menschen:
− Fokus auf Erkennung eines gemeinsamen Plans
Hinzufügen des externen Cue (farbiges Licht) ohne erkenntlichen Mehrwert
Teilnehmende zwischen 20 – 27 → nicht repräsentativ
Chaminade et al. (2005)
Finden wir motorische Simulation auch zwischen Mensch und Roboter?
welche Rolle spielt biologische Bewegung und humanoides Aussehen eines Roboters beim motor interference effect?
Bestätigt Experimentaldesign zur Bewertung der impliziten Reaktion eines Menschen auf einen humanoiden Roboter
Eine realistische Bewegung muss von humanoid aussehendem Roboter ausgeführt werden, um eine ähnliche Reaktion wie bei menschlicher Bewegungsbeobachtung hervorzurufen
Motorische Interferenz auch bei Mensch - humanoider Roboter Interaktionen beobachtbar
Keine Angaben zum Sample → Ergebnisse nicht interpretierbar
Limitationen nicht reflektiert
Wissenschaftlicher Stil teils nicht eingehalten
Hypothesen nicht eindeutig formuliert
Analyseergebnisse ohne Erläuterung
Diskussion wiederholt v.a. Inhalte aus der Einleitung, auf Teile der Ergebnisse wird nicht eingegangen
Press et al. (2005)
Führen robotische Bewegungsreize beim assoziativen Lernen zu automatischer Imitation, insofern sie menschlichen Bewegungsreizen ähneln?
robotische Bewegungsreize führen bei Menschen zu automatischer Imitation und können visuomotorisches Priming auslösen
höheres visuomotorisches Priming auf menschliche Bewegungsreize als auf robotische
Kompatibilitätseffekt
assoziatives Lernen unterstützt visuomotorisches Priming —> Priming nicht ausschließlich auf biologische Bewegungsreize beschränkt, auch bei robotischen möglich
Ergebnisse in Kontrast zu bisheriger Forschung zur Wahrnehmung von robotischen Bewegungsreizen
—> robotischen Stimuli könnten hier verglichen mit vorherigen Studien den menschlichen ähnlicher sein
nicht-repräsentatives Durchschnittsalter
Darbietungen beschränken sich auf Hände und bestimmte Bewegungen
Joint Simon Effect
Simon Effect =
3 Facts: (3)
Simon Effekt = Reaktionen sind schneller & akkurater, wenn der Stimulus räumlich mit dem Ort der Reaktion übereinstimmt, selbst wenn der Ort des Stimulus für die Aufgabe irrelevant ist
3 Facts:
Erste Entwicklung des Simon Task von Simon & Rudell, 1967, Simon & Small, 1969
Wird genutzt, als Tool zur Untersuchung von Wahrnehmung, Aufmerksamkeit, Handlungsplanung und kognitiver Kontrolle
Hat Theorien im Bereich der Beziehung von Aufmerksamkeit, Handlung und intentionaler Handlungskontrolle geprägt
Simon Task vs. Go/No-Go Task
Erklärung Simon
Annahme Go/No-Go Task
Häufige Erklärung Simon:
„Response Conflict“
→Wenn Stimulus und Reaktion nicht korrespondieren, entsteht ein Konflikt zwischen intentionaler Antwort und der automatisch durch die Stimulus Location getriggerteren Antwort →Kann zu Fehlern oder verzögerter Reaktion führen
Annahme:
Simon Effekt müsste verschwinden, wenn VP nur noch auf einen Stimulus mit einem Button reagieren müssen, da die Reaktion so vorbereitet werden kann bevor der Stimulus auftritt
→ wurde in Studien nachgewiesen (Hommel, 1996)
Joint-Simon-Effect =
Erklärung:
= Wenn VP genau das gleiche wie beim individuellen „Go/No-Go Task“ machen, aber in Anwesenheit einer anderen Person, die dann die Reaktion auf den anderen Stimulus übernimmt, dann tritt der Simon Effekt wieder auf
->Teilnehmende zeigen schnellere Reaktion, wenn der Stimulus räumlich mit dem jeweils ihnen zugeordneten Reaktionsbutton korrespondiert
Personen repräsentieren die Aufgaben/Handlungen anderer Personen automatisch genauso wie ihre eigenen
—> „Handlungs-Co-Repräsentation“
= Fundamentaler und automatischer sozialer Prozess der Wahrnehmung und Handlung
JOINT SIMON EFFECT
Stenzel et al. (2012)
Tritt der Joint Simon Effekt auch mit Robotern auf - Repräsentieren wir also auch die Handlungen von Robotern?
Der SSE in der menschenähnlichen(Roboter als aktiver + intelligenter Agen) Bedingung war signifikant größer als in der maschienenähnlichen
Probanden schätzten die Aktionen deutlich intetnionaler ein
Funktion menschlicher Repräsentationssysteme: nicht rein auf Lebewesen beschränkt, auch (top-down) Annahmen über das Funktionsprinzip der Maschine
nicht nur Menschenähnlichkeit engineerien- Überzeugungen des menschl. Interaktionspartners spielen Rolle
inkorrekte Reaktionen in der statistischen Analyse nicht untersucht
Fehlerrate als AV nicht untersucht
keine kritische Reflexion
Ökologische Validität im SSE- Pradagima sehr eingeschränkt. Eventuell wären komplexere Aufgaben interessanter zu untersuchen
Dolk et al. (2011)
Ist der Joint Simon Effekt wirklich sozialer Natur?
Autistische Personen zeigen SSE obwohl ihnen die Verarbeitung sozialer Informationen erschwert ist
SSE wird nicht durch die Integration der Handlung einer anderen Person in das eigene Körperschema verstärkt
Social-Simon-Effekt ist unabhängig von der aktiven Beteiligung des Co-Actors
der Social-Simon-Effekt basiert nicht unbedingt auf einer sozialen Interaktion, kann durch nicht-soziale, saliente Events entstehen
der SSE entsteht eher durch räumliche Trennung von Handlungsereignissen als durch die Integration der Handlung einer anderen Person
Angaben zu den ANOVA fehlerhaft
Fehlendes Experiment
Widersprüchlichkeit:
Körperschemaintegration wird künstlich erzeugt, jedoch wird angenommen, dass diese den SSE bereits im standard SST erzeugt
nicht unter sonst gleichen Bedingungen
Handlungsfehlerbezogene EEG-Korrelate
Was machen Menschen gegen Handlungsfehler ?
Wie ? (3) + —>
EEG (3)
ERN
Wodurch?
Ursprüngliche Annahme + Schlussfolgerung (3)
Menschen monitoren ihre Handlungen, um sicherzustellen, dass sie ihre Ziele erreichen
Wie?
Abgleich zwischen aktueller Handlung und internen Zielen und Standards
Bewertung der Angemessenheit der aktuellen Handlung
Voraussetzung für Verhaltensanpassungen, die adäquater für die Zielerreichung sind
—> Oft schnelle & zuverlässige Fehlererkennung
Event Related Negativity (ERN / Ne )*
Funktion einer fehlerhaften Reaktion verläuft wesentlich negativer als die der korrekten Reaktion (Peak nach ca. 80ms)
Nach der starken Negativierung (ERN / Ne ) im späteren Verlauf deutliche Positivierung (Pe )
ERN:
Wird hervorgerufen durch Reaktionsfehler → interne Information (z.B. falsche Bewegung) triggert ERN
Ursprüngliche Annahme:
ERN als Signal für Fehlererkennung, im Sinne eines Mismatch-Signals, wenn die gegebene Antwort mit der korrekten Antwort verglichen wird
Aber: kleinere Negativierung auch bei korrekten Reaktionen
Schlussfolgerung: ERN spiegelt Vergleichsprozess zwischen gegebener und korrekter Antwort wider - tritt unabhängig von bewusster Wahrnehmung auf
Error- Positivity (Pe) =
Mögliche Bedeutng von Pe (3)
Feedback error-related negativity (FERN/FRN) =
= Von ERN unabhängige Komponente der Fehlerverarbeitung,
—> stärker ausgeprägt bei bewusster Fehlerregistrierung: bei Fehlern, die Probanden wahrnehmen als bei Fehlern, die sie nicht wahrnehmen
Mögliche Bedeutung von Pe :
Affektive Reaktion auf einen Fehler
Bewusste Wahrnehmung des Fehlers
Antwortstrategieanpassung nach Fehler
= Nachdem externes Feedback gegeben wurde (z.B. auditiv), tritt etwas später auf als ERN (ca. 250ms nach Feedback),
Genauso wie beim ERN: Negativierung gefolgt von Positivierung
Achtung: umgekehrte Y-Achsen-Skalierung
HANDLUNGSFEHLERBEZOGENE EEG-KORRELATE
Loehr et al. (2013)
Treten messbare Fehlerkorrelate auch in Joint Action zwischen Menschen auf?
Ziel: Untersuchung der Überwachung von individuellen Handlungen, Partnerhandlungen und gemeinsamen Ergebnissen
Sowohl FRN als auch ERN treten auch auf, wenn Handlungen anderer Personen beobachtet
werden
abgeänderte Tonhöhen haben eine stärkere P300 hervorgerufen
Stärker wenn die eigene Stimme betroffen war
Stärker wenn das Joint outcome betroffen war
Internale Modelle werden bei Joint Action nicht nur für die Vorhersage eigener Outcomes, sondern auch für die Partner verwendet
Bei Joint Action sowohl eigene “Fehler”, als auch die der/des Partner*in eine Feedback-Related- Negativity auslösen
Während die P300 Komponente zeigt, dass zwischen eigenen “Fehlern” und denen der/des Partner*in unterschieden wird und ob das Joint-Outcome davon beeinflusst ist
Jahre musikalischen Trainings resultieren in starker Assoziation zwischen Handlungen und den hörbaren Konsequenzen
Alternative: FRN hervorgerufen durch (für westliche Musik) ungewöhnliche Harmonien?
Mismatch-Negativity (MMN) anstatt FRN
Genaue Umsetzung nicht beschrieben: Wie wurde die Tonhöhe verändert?
Singh et al. (2020)
Können Fehlerkorrelate auch in Joint Action zwischen Mensch und Roboter gefunden werden?
Der kognitive Konflikt=
Diskrepanz zwischen Vorhersage des Gehirns und der
Realität - ERN
—> Nutzen: Mensch-Roboter-Kollaboration verbessern indem
kognitive Konflikte erkannt werden
Nachweis der Prediction Error Negativity bei kognitiven Konflikten
PEN als geeignetes Maß für kognitive Konflikte in Mensch-Roboter Kollaboration
PEN spiegelt kognitiven Konflikt wieder, insbesondere bei plötzlichen Hindernissen.
Intensität und Art des Konflikts beeinflusst die Stärke der neurophysiologischen Reaktion
Artefakte durch mobiles Setup
Störfaktor: geistige und körperliche Ermüdung
Aufgrund der vielen Bewegungen, hohe Anfälligkeit für Sensorverschiebung und Ablösungen der EEG-Kappe
geringe Alterspanne- nur eingeschränkt repräsentativ
Welke et al. (2017)
Können Fehlerkorrelate gefunden werden, wenn ein Roboter bei fehlerhaften Handlungen beobachtet wird?
unterschiedliche Ergebnisse, wenn es sich jeweils um humanoide und nicht humanoide Roboter handelt?
Gehirnaktivitäten beim Beobachten von spezifischen Roboterhandlungen (korrekt/falsch) erkannt und dadurch dekodiert werden.
Einfluss des Aussehens bzw. die Menschenähnlichkeit eines Roboters auf die Gehirnaktivität der Menschen
Beobachtung von richtigen und falschen (schütten vs. verschütten) Roboteraktionen unterscheidet das Gehirn
sowie den Robotertyp (humanoid/nicht humanoid) ist in der menschlichen Hirnaktivität kodiert sind.
gehirngesteuerte Roboter stellen eine vielversprechende, neue Art von Hilfsmitteln für schwer beeinträchtige Personen dar
für praktische Anwendung sind die erreichten
Ergebnisse nicht ausreichend hoch.
Verallgemeinerung der Ergebnisse schwierig (Erg. knapp über dem Zufallsniveau)
Anzahl der Teilnehmenden sehr gering
Folgestudien erforderlich
Last changeda year ago