Was ist der Unterschied zwischen Selektiver und geteilter Aufmerksamkeit?
Was ist visual sampling und womit ist es verbunden?
Informationsaufnahme im visuellen Feld (= visual sampling) ist mit parallelen und seriellen Prozessen verbunden
Was ist die Funktion von Selektiver Aufmerksamkeit?
Herausfiltern wesentlicher Informationen
Wie läuft die Verarbeitung bei selektiver Aufmerksamkeit?
serielles Fokussieren verschiedener Areale oder Objekte im visuellen Feld
Wichtige Aufgaben der selektiven Aufmerksamkeit:
Supervisory Control (Überwachungsaufgaben)
Noticing (Bemerken unerwarteter Ereignisse)
Visual Search (zielgerichtete Suche)
Nenne Probleme der selektiven Aufmerksamkeit
Falsche Filterung möglich
Ablenkung stört Fokussierung
Warum müssen wir unsere Aufmerksamkeit überhaupt selektieren?
aufgrund der limitierten Ressourcen der visuellen Aufmerksamkeit können wir unsere Aufmerksamkeit nicht auf alle Reize in einem Display gleichzeitig richten
-> Selektion der vermeintlich wichtigsten Information notwendig
Was sind die beiden Einflussfaktoren auf Selektion?
Stimulusfaktoren
Kognitive Faktoren
Was sind kognitive Faktoren?
ist es top-down oder bottom up?
Was sind Stimulusfaktoren?
Ist es Top-down oder bottom up?
Was sind Einflussfaktoren auf die Fokussierung?
1. Informationsdichte
2. Diskriminierbarkeit
3. Aufgabenschwierigkeit
4. Training
5. Alter
Was hat visuelle Suche dann nochmal für Unterkategorien
Was sind Supervisory Control, Noticing und visuelle Suche?
Supervisory Control: Zielgerichtete Überwachung dyna- mischer Variablen, die über Instrumente angezeigt werden und Eingreifen bei unerwünschten Veränderungen (z.B. Leitwarte)
Noticing: Monitoren des visuellen Feldes und Entdecken unerwarteter Ereignisse sowie Reaktion darauf (z.B. Be-merken von Hindernissen beim Autofahren)
Visuelle Suche nach spezifischen, meist vordefinierten
Zielen (z.B. nach Flugschreiber an der Absturzstelle eines
Flugzeugs)
Supervisory Control „in the Wild“: Was passiert da?
Merkmal: Periodisches Sammeln von Informationen auf mehreren Kanälen (z. B. mehrere Instrumente), registrierbar über Blickbewegungen
Kanäle: Anzeige normaler Werte, aber auch kritischer Ereignisse und Störungen
Information sampling bei Supervisory Control wird von zwei Größen aus der Signalentdeckungstheorie beein- flusst:
Häufigkeit einer Störung (Base rate des „Signals“)
Kosten von Misses
Supervisory Control „im Labor“: Wie wird das gemacht?
Simultane Überwachung mehrerer Kanäle
Kritische Ereignisse (z. B. Zeiger außerhalb Normalbereich)
Variation von Kosten / Häufigkeiten
Verhaltens / Leistungsbewertung mittels SDT
Ermittlung der Aufmerksamkeitsverteilung mit Eye Tracking
Sekundäraufgaben möglich
Jetzt gehts ums Sichtfeld: Was ist foveal, parafoveal und was ist peripher? Was sind davon jeweils die Aufgaben?
Wie wird definiert, was bei supervisory control überwacht werden sollte und deshalb möglichst foveal zu fixieren ist?
Area of Interest (AoI):
Physikalischer Ort mit aufgabenspezifischer Informationen
oI kann Informationen für mehrere Aufgaben enthalten (z. B. Wind- schutzscheibe zum Halten der Spur und zum Erkennen von Gefahr)
Umgekehrt benötigen manche Aufgaben mehrere AoIs (z. B. Spurwechsel: Blick in den Seitenspiegel, Schulterblick etc.)
Maximale Scanningrate ist ca. 3 Fixationen (dwell) pro Sekunde (damit ist die durchschnittliche dwell time 1/3 Sekunde)
-Y Dwell time länger bei umfangreichen Informationen bzw. schwer wahrnehmbaren / missverständlichen Informationen
Blickverhalten kann mit Eyetracking erfasst werden, das zeigt welche AoI wann, wie lange und wie häufig bei der Bewältigung einer Aufgabe fixiert wird.
Welche Faktoren bestimmen AoI Fixationen?
-> SEEV Modell
SEEV-Modell:
Nenne (ohne Erläuterung) die 4 Faktoren, die das Blickverhalten bei Supervisory Control beeinflussen
Salienz
Aufwand
Erwartung
Wert
Erkläre Salienz
Wie deutlich hebt sich die AoI vom Hintergrund und / oder von anderen AoIs ab?
Saliente Reize ziehen Aufmerksamkeit schnell an
Umsetzung: Driver-Focus-Warnsystem (Continental, 2013)
Erkläre Aufwand
Kosten für den Wechsel von der aktuell fixierten AoI zu einem Ziel (einer anderen AoI) hängen von der Entfernung beider AoIs ab:
Ziel innerhalb des fovealen Bereichs erfordert keine Bewegung
Entfernung kleiner 20 Grad Sehwinkel erfordert Augenbewegung
Entfernung zwischen 20-90 Grad Sehwinkel erfordert Kopfbewegung
Bei mehr als 90 Grad Entfernung ist eine Körperdrehung nötig 1
-> Je größer die Bewegung, desto höher die Kosten-> kein linearer Zuwachs, sondern exponentielle Steigerung
Kosten können z.B. sein: Zeit, Beanspruchung, Ermüdung
Erkläre Erwartung
Und nenne ein Beispiel
Wahrscheinlichkeit, mit der ein Ereignis in einer bestimmten AoI erwartet wird
Beeinflusst von der Auftretenshäufigkeit von Ereignissen / Veränderungen) in AOI: hohe Umweltdynamik -> häufige Änderungen zu erwarten
SEEV Modell: Erkläre Wert
Wahrgenommene Nützlichkeit (Wichtigkeit) einer Information
Relevanz der AoI für die Aufgabe
Gewichtet mit der Bedeutsamkeit der Aufgabe
Beziehung zur Erwartung:
Erwartete Informationen können wertlos sein, z. B. bestimmte Schilder an der Straßenseite (Werbetafeln)
Umgekehrt können wertvolle Informationen auch unerwartet auftreten, z. B. plötzlich kreuzendes Fahr- zeug auf der Runway eines Flughafens
Alle Aspekte zusammen bilden das SEEV- Modell von Wickens. Wo hilft das Modell nun + was haben die Faktoren für Einflüsse auf die Selektive Aufmerksamkeit?
Modell sagt vorher, wo bei supervisory control fixiert wird
viele Anwendungskontexte (Autofahren, Fliegen, OP)
Orientierungshilfe für die Gestaltung von Displays
Einflüsse der Faktoren auf die selektive Aufmerksamkeit:
Salienz und Aufwand: bottom-up (reizgesteuerte) Einflüsse auf die selektive Aufmerksamkeit z. B. Helligkeit eines Hinweisreizes, Entfernung zweier Reize
Erwartung und Wert: top-down (erfahrungsgesteuerte) Einflüsse auf die selektive Aufmerksamkeit-> basieren auf dem mentalen Modell des Operateurs
Wie ergibt sich die Gleichung für das SEEV Modell?
Was hat SEEV für Konsequenzen für die Displaygestaltung?
Nenne 3 Anwendungsbeispiele für SEEV
Scan-Training: Kalibrierung von Erwartung (E) an die tatsächliche Häufigkeit und den Wert (V), um ein adäquates Situationsmodell aufzubauen (-> Top-Down-Faktoren)
Display-Design:
Die Salienz (S) einer AoI sollte positiv mit dem Wert (V) der AOI korrelieren, d.h. wertvolle Information sollte möglichst salient sein
Der Abstand zwischen zwei Anzeigen, die häufig zusammen gescannt werden müssen, sollte möglichst gering sein, um den Aufwand (E) für einen Wechsel zwischen den Anzeigen gering zu halten.
Kontextuelle Hinweisreize sollten nah an der AoI platziert werden, in der ein Zielreiz auftauchen wird -> Minimierung des Aufwands (E)
Safety Prediction: Gefährliche Vernachlässigung bestimmter AoIs lässt sich mit dem SEEV-Modell abschätzen: Vulnerabilität durch Übersehen kritischer Ereignisse kann vorhergesagt werden -> direkter Bezug zur Signalentdeckungstheorie
Fasse Supervisory Control noch einmal zusammen
Spotlight Metapher veranschaulicht die wesentlichen Prozess-
eigenschaften visueller Aufmerksamkeit
Bei den Prozessen wird zwischen serieller und paralleler Verar- beitung, sowie zwischen selektiver und geteilter Aufmerksamkeit unterschieden
Selektive Aufmerksamkeit spielt eine bedeutende Rolle bei:
Überwachung / Supervisory Control
Noticing
Visuelle Suche
SEEV-Modell beschreibt die Wahrscheinlichkeit dafür, dass eine bestimmte AoI mit Aufmerksamkeit belegt wird. Daran sind sowohl bottom-up als auch top-down Prozesse beteiligt, die wiederum durch Salience, Effort, Expectancy und Value beeinflusst werden
Welche Themen behandeln wir beim noticing?
change blindness
inattentional blindness
Was ist eigentlich der Unterschied zwischen Noticing und Supervisory Control?
Noticing („bemerken“) vs. supervisory
control (überwachende Kontrolle):
Supervisory control meint die überwachende Regelung und Steuerung bestimmter Kanäle -> Sampling
Noticing bezieht sich auch auf Über- wachung, betont dabei aber unerwar- tete, plötzliche Veränderungen im ge- samten GesichtsfeldàMüssen be- merkt werden!
Die menschliche Wahrnehmung ist im Allgemeinen sensitiv gegenüber Verän- derung; trotzdem kann es zu Fehlern, kommen.
Besonders beeindruckende Phänomene sind hierbei change blindness und inattentional blindness.
Was ist Change Blindness?
Change blindness beschreibt das Nicht-Erkennen von
Veränderungen in der Umgebung
Häufig durch Unterbrechungen generiert (z.B., Sakkaden, Blinzeln, physische Objekte), die zu einer Maskierung der Veränderung führenàArbeitsgedächtnis wird für die Ver- änderungserkennung notwendig
Was war nochmal diese Door-Study
Door Study:
Passanten werden auf der Straße angesprochen, durch einen Trick wird die fragende Person ausgetauscht (Simons & Levin, 1998)
ca. 50% der Versuchspersonen erkennen nicht, dass die Person ausgetauscht wurde
-> soll halt Change Blindness “Im Feld” demonstrieren
Auf welchen Aspekt im Aufmerksamkeits-Modell nimmt Change Blindness Einfluss?
Welche Einflussfaktoren wirken auf Change Blindness?
Hoher Taskload / aufmerksamkeitsbindende konkurrierende Aufgabe -> Belastung des Arbeitsgedächtnisses
Geringe Salienz des veränderten Stimulus
-> Höhere Salienz (z. B. durch Farbe) ergreift die Aufmerksamkeit (atten- tional capture oder „pop out“)àkann change blindness verhindern
Hohe Exzentrizität des Ereignisses / Entfernung des Punktes der Veränderung vom Fixationspunkt zum Zeitpunkt der Veränderung
Element ist außerhalb des Sichtfelds bzw. maskiert, d.h. Veränderungen auf perzeptueller Ebene (sensorische Speicher) sind leichter zu entdecken als auf Gedächtnis- ebene (Arbeitsgedächtnis)
Geringe Vorhersagbarkeit der Veränderung -> Change blindness ist weniger wahrscheinlich, wenn die Aufmerksamkeit kurz vor oder nach der Veränderung auf der Position der Veränderung liegt.
Was ziehen wir nun für Schlüsse aus Change Blindness für die Displaygestaltung?
Nenne die 3 Nutzeraspekte für die Displaygestaltung von Rensink
Change blindness hat hohes Gefährdungspotential, aber kann auch für positive Zwecke eingesetzt werden
Drei Nutzenaspekte für die Displaygestaltung (Rensink, 2000):
Change blindness Paradigma zur Überprüfung der Aufmerksamkeitszuwendung auf Orte und Objekte im Displayraum
Daraus für „Displayökonomie“ abgeleitet:
Wo sollten wichtige und wo eher unwichtige Informationen
präsentiert werden?
An welcher Stelle sollte ein Display detailliert und feinauflösend sein, an welcher Stelle reicht eine gröbere Darstellung aus?
Unsichtbare Veränderung auf Displays: Informationen / Veränderungen, die Nutzer nicht wahrnehmen sollen -> Vermeidung von Ablenkung
Was sind praktische Implikationen von Change Blindness?
Entwickler müssen sicherstellen, dass Benutzer der Displays wirklich das sehen, was sie sehen sollen.
Implikationen:
Entwickler müssen wissen, dass visuell vermittelte Veränderungen der Anzeigen nicht unbedingt den Nutzer erreichen
Wichtige Veränderungen sollten nicht ausschließlich visuell vermittelt werden -> Redundanz erzeugen!
Dynamische Darstellungen sollten nur ein dynamisches Event gleichzeitig auftreten lassen
Unterschiede sollten so explizit wie möglich gemacht werden
Erwartung eines Ereignisses kann durch Training verbessert werden
Was ist inattentional blindness?
Inattentional blindness beschreibt das Phänomen des „looking, but failing to see“
Teilweise "sehen" wir Objekte, ohne uns diesen Objekten bewusst zu werdenàKlassischer Befund: Basketball-Video (Simons & Chabris, 1999) – 50% der Personen sehen den Gorilla nicht!
Welche Experimente zu inattentional blindness kennst du?
Ausmaß der inattentional blindness ist abhängig von …
...von der Schwierigkeit der Aufgabe
Basketball-Profis (hohe Expertise) bemerken den Gorilla
häufiger (Memmert, 2006)
Personen mit größerer Arbeitsgedächtniskapazität erkennen den Gorilla häufiger, da sie mehr freie Ressourcen neben der Zählaufgabe haben (Seegmiller et al., 2011)
Bei reduzierter Aufmerksamkeitskapazität (z. B. alkoholisierte Versuchspersonen) ist inattentional blindness größer (Clifasefi et al., 2006)
von der visuellen Ähnlichkeit der Stimuli
beim Zählen der Pässe der schwarz-gekleideten Spieler wird der Gorilla häufiger erkannt (Simons & Chabris, 1999)
Das SEEV-Modell kann auch Fehler bei der Detektion durch change und inattentional blindness erklären
Nenne jeweils Beispiele für die beiden
Change blindness, z.B.:
Auffälligkeit der Veränderung (geringe Salienz)
Exzentrizität des Ereignisses (größerer Effort)
Inattentional blindness z.B.:
Unterscheidbarkeit der Stimuli (geringe Salienz)
Übergewichtung anderer Informationskanäle (geringer Value)
Erwartung an bestimmte Informationskanäle (Expectany)
Detektionsfehler bei Noticing:
Fast alle Fast alle alltäglichen Bereiche sind anfällig für change / inattentional blindness
In welchen Bereichen ist das so? Was kann bereits gefährlich werden?
Kurze Unterbrechung der Aufmerksamkeit (Abschweifen des Blickes, Wimpernschlag, etc.) genügt
Gefährlich wird es, wenn durch diese Unterbrechung der Aufmerksamkeit das Übersehen von Informationen die Sicherheit beeinträchtigt
Straßenverkehr: Wechsel der Ampel von grün auf rot; Passanten auf der Fahrbahn (Zebrastreifen), etc.
Flugverkehr: Kleinste Veränderungen auf Displays können von großer Bedeutung sein
Beide Fehler treten besonders häufig bei Displays auf (Schnittstelle zwischen Mensch und Maschine)
Warum geschehen in der Systemgestaltung häufig Fehler in der Mensch-Technik-Interaktion (in Hinblick auf inattentional und change blindness)
Fehler in der Mensch-Technik-Interaktion aufgrund von in- attentional und change blindness insbesondere aufgrund von (Selbst-)Überschätzung hinsichtlich der Korrektheit der visuellen Wahrnehmung.
Glaube, dass bei visuell dargebotener Informationen mehr Informationen verarbeitet werden als tatsächlich der Fall ist.
Varakin et al. (2004): Überschätzung auf drei Ebenen:
(zu: Fehler in der Mensch-Technik-Interaktion aufgrund von in- attentional und change blindness insbesondere aufgrund von (Selbst-)Überschätzung hinsichtlich der Korrektheit der visuellen Wahrnehmung)
Überschätzung der „Breite“: Alle Details einer visuellen Szene können gleichzeitig verarbeitet werden“ – Eindruck entsteht durch globales Bewusstsein einer Szene, tatsächlich ist Aufmerksamkeit ort- bzw. objektfixiert und deckt nur einen Teil der Szene ab
Überschätzung der „Gleichmäßigkeit“: Beobachter schenken allen Regionen einer visuellen Szene Aufmerksam- keit – Tatsächlich werden aber selbst auffällige Reize nicht erkannt
Überschätzung der „Tiefe“: Wahrgenommene Objekte werden automatisch detailliert im Gedächtnis abgespeichert – Tatsächlich gelangt nur ein Bruchteil der wahrgenommenen Objekte ins Arbeitsgedächtnis
-> „Blindheit für diese Blindheiten“ (blindness blindness)
Was ist attentional and cognitive tunneling?
Also nochmal was ist attentional tunneling und was sind Ursachen dafür?
Attentional Tunneling
Übermäßige (mehr als optimale) Aufmerksamkeitszuwendung zu bestimmter Informationsquelle
Vernachlässigung anderer Quellen
Führt zu falschen Schlüssen bzw. Fehlern in der Aufgabenerledigung
Ursachen:
Hauptsächlich hohe Salienz eines irrelevanten Stimulus
Durch Größe, häufige Veränderungen, Farbgestaltung o. ä., zieht dieser Stimulus viel Aufmerksamkeit auf sich
Aufmerksamkeit einer Person wird dadurch auf diesen einen Stimulus eingeengt, andere Stimuli (z. B. andere Anzeigen) werden ignoriert
Also nochmal was ist Cognitive Tunneling und was sind Ursachen dafür?
Cognitive Tunneling
Einengung von Aufmerksamkeit aufgrund (u. U. falscher) kognitiver Vorannahmen und Hypothesen
Erfahrungs-/erwartungsgestützte Aufmerksamkeitszuwendung (top-down)
Person konzentriert sich hypothesengeleitet nur auf Informa- tionen, die ihre (u. U. falsche) kognitive Hypothese stützen (confirmation bias)
Ursachen
Mentales Modell der Anzeige bzw. des Systems kann Auf-
merksamkeit falsch lenken
Insbesondere bei Mehrfachaufgaben kann falsche Beurteil- ung der Aufgabenwichtigkeit zu Tunneling führen
Es resultieren Fehler bei der Handlungsauswahl
Attentional und Cognitive Tunneling stehen in Zusammenhang und bedingen sich gegenseitig. Bitte erkläre warum!
Oftmals keine klare Trennung der bottom-up- und top-down- Einflüsse möglich
Besteht bereits eine kognitive Hypothese, werden kongruente Informationen in der Umwelt bevorzugt wahrgenommen
-> Wahrnehmung kann wiederum zu Attentional Tunneling führen
Einengung auf bestimmten Wahrnehmungsbereich durch Attentional Tunneling kann zum Aufstellen einer kognitiven Hypothese verleiten, welche wiederum eine weitere Aufmerk- samkeitseinengung im Sinne des Cognitive Tunneling verstärkt
SO jetzt Checkliste mit Designimplikationen aus was wir aus Noticing gelernt haben
Nur eine Veränderung pro Zeiteinheit
Alle Elemente die sich verändern sollten zusammen gruppiert werden
Animationen / Kontext-Cues verwenden, um Veränderungen sichtbar zu machen
Areale die sich nicht verändern weniger salient machen, Are- ale die sich verändern mehr salient machen
Dynamische Elemente im Aufmerksamkeitsfokus platzieren
Workload messen / Eye tracking benutzen um Inattentional Blindness zu entdecken
Was passiert bei einer visuellen Suche?
Visuelle Suche = Serielles scannen komplexer visueller Information
Was ist der Zweck der visuellen Suche? Im Gegensatz zum Noticing?
Welche Aufmerksamkeit benötigt man dafür?
Zweck der visuellen Suche ist das Finden eines vordefinierten Zielob- jekts (= target)-> beim Noticing geht es dagegen um das Entdecken eines unerwarteten Zielreizes!
Dabei wird selektive Aufmerksamkeit (d.h. der „Scheinwerfer“) über das abzusuchende Feld bewegt
Visuelle Suche hat eine Reihe von Anwendungsgebieten:
Autofahren
Lesen von Karten
Gepäckkontrolle
Arten der visuellen Suche: Welche 3 gibts? (+ erkläre gleich)
Freie Suche ein Ziel ist vorgegeben, aber der Suchraum ist nicht strukturiert z.B. Straße auf einer Landkarte
Strukturierte Suche ein Ziel ist vorgegeben, welches im strukturierten Suchraum gefunden werden soll z.B. ein Eintrag in einer Tabelle
Geführte Suche Top-down Faktoren leiten die Suche z.B. die Erwartung, das Ziel an einer bestimmten Stelle zu finden
-> mentales Modell
Bei der Beschreibung von Suchprozessen sind eine Reihe von Parameter zu beachten:
Useful Field of View (UFOV)
Fixationsdauer (Dwell Time)
Suchraum
Useful Field of View (UFOV): Was ist das?
Useful Field of View (UFOV):
Die Fläche, die gescannt werden kann, hängt ab von:
Größe des UFOV
der zur Verfügung stehenden Zeit -> 3 Fixationen pro Sekunde
Useful Field of View (UFOV): Fehlerquellen
Auch ohne Zeitlimit wird häufig nicht der gesamte Suchraum gescannt
Information im UFOV muss nicht zwangsläufig wahrgenommen und verarbeitet werden -> inattentional blindness
Fixationsdauer (dwell time) bestimmt die…
Abhängig von…
Zeit der visuellen Informationsverarbeitung für ein UFOV
…. Dichte der relevanten Informationen (je mehr, desto länger)
….. Wichtigkeit des Kanals / Instruments (je wichtiger, desto länger wird eine Information betrachtet; Value)
….. Expertise des Beobachters (Novizen fixieren informationsreiche Instrumente fast doppelt so lange wie Experten; Expectation)
Dwell time: Lange Fixationsdauern sprechen für eine
erschwerte Extraktion der Information (aber auch tiefe Verarbeitung -> Uneindeutigkeit)
Lange Dauern unabhängig von Aufgabe und Kontext -> subopti- male Anzeigengestaltung!
Was ist der Suchraum?
Suche nach Zielobjekt maßgeblich durch…bestimmt
Suchraum für Zielsuche kann geografischer Raum (Suche an
Unfallstelle) oder artifizieller Raum (Bildschirm) sein
…kognitive Faktoren….
Kognitive Einflüsse meist stärker als Anzeigeneinflüsse!
Konsequenzen:
Kein konsistentes Muster beim Absuchen eines Displays (z.B., von links nach rechts oder im Uhrzeigersinn)
Display getriebene Suchstrategien werden normalerweise von konzeptuellen oder wissensbasierten Suchstrategien dominiert
Eyetracking zum Erfassen der visuellen Suche: Was sind die beiden options?
Visuelle Suchaufgaben stehen in enger Verbindung mit Clutter. Was ist das?
zu viele ungeordnete Elemente im Display
Erkläre die 4 Clutter
Numerosity: Anzahl an potentiellen Distraktoren beeinflussen Suche
Proximity / Readout: Nah angrenzende Anzeigen stören die Ausrichtung der Aufmerksamkeit auf den Zielreiz
Disorganizational: Unstrukturierte bzw. zufällige Anordnung von Elementen auf einem Display
Heterogeneous: Heterogenität der nicht-zielführenden Hintergrundelemente des Displays
Alle Arten von Clutter behindern die…
…. gezielte Wahrnehmung von Informationen und erschweren damit die visuelle Suche
Können verschiedene Clutter gemeinsam auftreten?
Häufig treten mehrere Clutter Arten gemeinsam auf
Numerosity clutter: Anzahl an potentiellen Distraktoren
Heterogeneous clutter: Heterogenität nicht-zielführender Hintergrundelemente
Disorganizational clutter: Elemente nicht strukturiert
Modell: Serial Self Terminating Search (SSTS):
Was beschreibt das Modell?
Das SSTS Modell beschreibt die Zeit, die benötigt wird, um einen Ziel- reiz / Target in einem Suchraum zu finden, der nicht leer ist sondern eine Menge von Nicht-Zielreizen / Distraktoren enthält
Was weißt du über die Eigenschaften des SSTS Modells?
Position des Targets ist dem Suchenden nicht bekannt
Target kann im Suchraum präsent oder nicht präsent sein § Größe des Suchraums / set size (= Anzahl der Distraktoren) variiert
Suche ist seriell, d.h. sie geht von Reiz zu Reiz
Modell macht keine Annahme über die Reihenfolge der Suche
Suche wird beendet, wenn:
Zielreiz gefunden wurde
gesamter Suchraum erfolglos gescannt wurde
Nenne eine Beispielaufgabe (die du aus dem Bachelor kennst) für das SSTS-Modell
Modell: Serial Self Terminating Search (SSTS)
Die Suche endet, wenn:
a) der Zielreiz präsent ist und gefunden wird
(b) der Zielreiz nicht präsent ist und der Suchraum erfolglos abgesucht wurde
Abweichungen vom SSTS Modell
Suche nicht immer selbst-beendend, insbesondere bei…
mehreren Zielreizen (z. B. „Finde F und K“)
Zählaufgabe (z.B. „Wie viele Ks gibt es?“)
->Exhaustive Search: alle Reize werden abgesucht
Suche ist nicht immer seriell:
Parallele Verarbeitung ist möglich, vor allem wenn sich der Zielreiz durch eine bestimmte saliente Eigenschaft (singleton) abhebt -> Attentional Capture oder auch Pop Out -> Präattentive Verarbeitung, die keine Aufmerksamkeit / Ressourcen benötigt
Nenne weitere Abweichungen vom SSTS Modell
Geführte Suche / Guided Search:
Was ist diesmal anders ??
Bisher: Freie Suche im Abhängigkeit von bottum-up / reizbezo- genen Einflüssen
Aber: Top-down Einflüsse bei der Suche wahrscheinlich:
Gezielte Suche abhängig vom Wissen, wo das Objekt mit größter Wahrscheinlichkeit zu erwarten ist
Konzentration auf relevante Regionen, die besonders informativ sind.
Ziele (vermittelt über Instruktionen / Aufgaben) beeinflussen die Suche
Gib ein Beispiel für guided search
Detektionswahrscheinlichkeit und Suchzeit: Erkläre das Modell von Drury
Suchgenauigkeit ist definiert als der…
der Trade-Off zwischen Detektionswahrscheinlichkeit und Suchzeit (Speed-Accuracy Trade-Off)
Misses beim Suchen durch zwei Fehler begründet:
Gib noch Beispiele!
Misses durch zwei Fehler begründet:
Inattentional blindness
Suchen sind meist unvollständig -> stopping policy
Beispiel:
Hohe Korrelation zwischen Suchzeit und Finden eines Polypen bei Koloskopie (Darmspiegelung)
Konservative stopping policy sorgt dafür, dass länger gesucht wird, unabhängig davon ob ein Polyp vorliegt oder nicht
Frühe Abbrüche (riskante stopping policy) meist nach dem Absuchen von Regionen mit hoher Auftretenswahrscheinlichkeit
Strukturierte Suche: Alle Elemente im Suchraum sind strukturiert und unterliegen einer systematischen Ordnung: Gib ein Beispiel:
Beispiel: Strukturierte Suche in Menüs
Suchzeit bei serieller Suche
Was macht geteilte Aufmerksamkeit möglich? Nenne die Load Theory of Attention von Lavie
Welche beiden Phasen visueller Verarbeitung gibt es?
präattentive und attentive Phase
Beschreibe die präattentive Phase
Beschreibe die attentive Phase
Parallele Verarbeitung lässt sich durch Integration verschiedener Informationsanzeigen erreichen
Konfigurationen, die …
Konfigurationen, die Eigenschaften emergent machen
Parallele Verarbeitung lässt sich durch Integration verschiedener Informationsanzeigen erreichen:
räumliche Nähe
Integration zu einer Gestalt / einem Objekt (objektbezogene Nähe)
Besonders Gesetz der Nähe unterstützt die parallele Verarbeitung
Gib ein Beispiel:
Was ist Objektbasierte Nähe? Erkäre anhand des Beispiels Fluglageanzeiger
Zwei Formen der Nähe in Displays:
Display Proximity
Task Proximity
Display proximity beschreibt, wie….
Was erhöht diese Nähe?
perzeptiv nahe sich zwei Anzeigenkomponenten stehen
Räumliche Nähe, aber auch Ähnlichkeiten in Form- oder Farbgebung erhöhen diese Art der Nähe
Task proximity beschreibt, wie…
Was weißt du alles über Task proximity?
…nahe sich zwei Aufgaben in der Prozess- kette der Aufgabenbearbeitung stehen
Müssen zwei Aufgaben gleichzeitig bearbeitet werden, ist die Task Proximity maximal
Müssen zwei Aufgaben nacheinander verarbeitet werden, dann ver- ringern Zeitabstände und intervenierende Schritte zwischen diesen Aufgaben die Task Proximity
Hohe Task Proximity ermöglicht geteilte Aufmerksamkeit (oder sogar parallele Informationsverarbeitung), geringe Task Proximity erfordert fokussierte Aufmerksamkeit (also serielle Informationsverarbeitung)
Was ist das Nähe-Kompabilitäts-Prinzip?
Last changeda year ago