Mensch-Computer-Interaktion (HCI) Definition
Mensch-Computer-Interaktion(HCI; oft synonym verwendet: Mensch-Maschine-Interaktion)
Bei der HCI steht nicht allein die durch einen Computer vermittelte Kommunikation zwischen Menschen im Fokus
vielmehr steht ganz allgemein die Kommunikation des Menschen mit dem Computer bzw. seinen Programmen im Fokus.
Der Computer ist in der HCI aber nicht ausschließlich Kommunikationsmedium, sondern kann auch eigenständige Informationsquelle, eine eigene Entität, eher der Sender als der Vermittler von Information sein.
Beispiel: ein Computer im Auto, der dieses (teil-) autonom steuern kann und die fahrende Person bei Gefahr des Einschlafens oder bei zu geringem Luftdruck in den Reifen kontaktiert.
Mensch-Computer-Interaktion (HCI)
Unterscheidung der HCI von anderen Medien (z. B. Fernsehen, Radio aus früheren Tagen):
Motive für die Nutzung von Computern sind teilweise andere (ein Arbeitsgerät statt ein reines Kommunikations-und Unterhaltungsmedium)
Durch die größere Interaktivität in der HCI kommt es z. T. zu anderen Rezeptionsprozessen und -wirkungen
Der Schnittstelle(Interface) zwischen Mensch und Maschine kommt besondere Bedeutung zu
HCI -Entwicklung
In den Anfängen der HCI musste sich der Mensch der Maschine/dem Computer anpassen -> Bis in die 80er Jahre wurde sich bei der Interface-Gestaltung wenig an menschlichen Nutzer*innen orientiert
Benutzergerechte Gestaltung rückte irgendwann in den Mittelpunkt und damit auch die Berücksichtigung von (medien-) psychologischem Wissen
Wie sah die Anpassung des Menschen an den Computer früher aus?
Computer früher waren sehr groß und im Vergleich zu heutigen Smartphones sehr leistungsschwach. Die Ausgabe erfolgte über ausgedruckte Seiten einer Schreibmaschine
Computer mussten lange Zeit allein durch die Texteingabe in Kommandozeilen gesteuert werden. Bei Falscheingabe eines Befehls musste man oft den gesamten Prozess neu starten, die Funktion „Rückgängig machen“ gab es nicht
Die Bedienung war aus heutiger Sicht sehr anwenderunfreundlich, aber man hat sich daran angepasst und diese Kommandos und Eigenheiten gelernt.
1980er Jahre fand Paradigmenwechsel statt: es erfolgte eine zunehmende benutzergerechte Gestaltung -> ging nicht mehr allein darum, eine aus technischer Sicht optimal funktionierende Maschine zu bauen, sondern diese auch an die physischen und geistigen Merkmale seiner Nutzer*innen anzupassen.
Grafische Benutzeroberfläche (GUI)
Erste intuitiv zu bedienende Schnittstellen waren grafische Benutzeroberflächen (graphicaluserinterface, GUI) nach den WIMP-Prinzipien (Windows, Icons, Menu, Pointer)
Das WIMP-Modell ermöglicht die direkte Überprüfung des Ergebnisses einer Eingabe sowie die Umkehrbarkeit der Aktion (Rückgängig machen)
Nachteilig am WIMP-Modell:
Durch steigende Anzahl an Funktionen können diese nicht mehr alle visuell dargestellt werden (oder es wird unübersichtlich und überfordert die Nutzer*innen)
Das Aufteilen der Aktionen in viele Teilschritte schränkt ggf. Arbeitseffektivität von erfahrenen Nutzer*innen ein
Beispiel Windows vs SPSS:
Windows GUI nutzerfreundlich(er) als die Steuerung eines PCs über Kommandozeilen
Arbeit mit Syntax erfordert deutlich mehr Hintergrundwissen über die Programmbefehle und zum Teil auch statistische Methoden
Die Verwendung der Syntax setzt voraus, dass die Nutzer*innen sich dem Programm quasi anpassen und alle für sie relevanten Befehle und Syntaxregeln kennen lernen und fehlerfrei umsetzen.
Die SPSS-Syntax ist nicht fehlertolerant. Jede kleine Abweichung von der Syntaxsprache führt zu Fehlern in der Ausführung
HCI Entwicklung
Zentral ist hier das Konzept der Interface-Metapher:
Durch eine Metapher soll ein bestimmter Inhalt oder spezielle Eigenschaften durch Anlehnung an Objekte der realen Welt symbolisiert werden
z. B. Papierkorb-Icon: Dieses aktiviert die kognitiven Schemata des realen Objekts „Papierkorb“, sodass entsprechende Gedächtnisinhalte und Handlungsskripte aktiviert werden, welche Operationen mit dem Objekt vorgenommen werden können
Kommentar:
Eine Metapher beim Online Shopping: Einkaufswagen bzw. die Einkaufstasche.
Mit diesem Symbol verbindet man automatisch die Funktion „Auswählen und Mitnehmen“, aber noch nicht „Kaufen“. -> kann in normalen Laden auch noch an der Kasse zu der Entscheidung gelangen, ein Produkt aus dem Korb zu entfernen.
Warenkorb = engere Auswahl an Produkten, für die eine hohe Kaufintention besteht.
Die Einkaufstasche ist schon spezieller-> kauft mit dieser ggf. in Kleidungsläden ein, aber seltener in Baumärkten.
Kontext muss berücksichtigt werden bei Wahl der Interface Metapher
Wenn die Interface-Metaphern völlig unpassend gewählt werden, dann kann das zu gravierenden Usability-Problemen führen.
Analogie zwischen einer Metapher und einem realen Objekt ermöglicht intuitives Lernen und soll Vergessen vorbeugen
HCI Entwicklung & virtuelle Realität
Natürlich-sprachliche Interaktion (Schnittstellen) zwischen Mensch und Maschine (Dialog-Metapher)
z.B. Siri oder Alexa
heute weit verbreitet
schnelle Entwicklung und Voranschreitung der Mensch-Maschine-Schnittstelle in den letzten Jahren
Anthropomorphe Schnittstellen (Schnittstellen in menschlicher Gestalt, z.B. in Form von Embodied Conversational Agents oder in Form eines Avatars):
Embodies Conversational Agents = ein verkörperter dialogfähiger Agent
Bei Embodies Conversational Agents stellen computergenerierte Figuren, die menschenähnliche Attribute aufweisen und die Fähigkeit zur verbalen und nonverbalen Kommunikation besitzen, die Mensch-Maschine-Schnittstelle dar.
Z.B. virtueller Agent, der im Rahmen von virtuellen Lernumgebungen durch ein Tutorial führt und auf Eingaben der Nutzer reagiert
-> Dahinter versteckt sich aber kein Mensch sondern ein Computerprogramm
Avatar: ein durch eine echte Person gesteuerter virtueller Stellvertreter
verbirgt sich Mensch hinter Avatar, dessen Verhalten durch den Avatar vermittelt wird
Bsp.: Film Avatar
Virtuelle Realität
= Eine dreidimensionale, durch Computer simulierte, künstliche und aus der Ich-Perspektive erlebte Umgebung, in der sich Nutzer*innen relativ frei bewegen und mit Objekten interagieren können und
Die in der VR präsentierten Objekte und Ereignisse ähneln in ihrer Erscheinung realen Objekten und Ereignissen
Durch Interaktionen mit diesen kann Gefühl entstehen, in eine künstliche Welt einzutauchen.
Das Erleben der Nutzerinnen steht im Vordergrund & vor allem das Konzept der Präsens (bzw. Telepräsens)
ABER: Problem der Bewegungsübelkeit noch nicht gelöst
Augmented Reality:
= Erweiterung der sensorischen Wahrnehmung durch die Hinzugabe von nicht-natürlich vorhandenen Wahrnehmungsaspekten
geht hierbei nicht um eine vollständig vom Computer erzeugte virtuelle Umgebung, sondern um verschiedene Formen der Informationsdarbierung bzw. einblendung in die natürliche Umgebung
Bsp.: Pokemon Go
i.d.R. in Form von visuell dargebotener Information, aber auch möglich über andere Sinneskanäle
Schnittstellen, die als solche nicht mehr erkennbar sind (z.B. „intelligente“ Kleidung) oder allein über die Gedanken der Nutzer*innen gesteuert werden können.
HCR - VR
VR-Erlebnis besteht dann, wenn Telepräsenz empfunden wird
d. h. es kommt bei den Rezipient*innen zu einer Präsenzerfahrung, die mit dem Erleben einer physikalischen Umwelt kongruent ist.
Nach Steuer (1992) wird Telepräsenz durch folgende Faktoren determiniert:
Vividness(Lebendigkeit, Realismus): Eine sensorisch reiche Umwelt wird durch das Medium produziert, konstituiert durch breath(sensorische Breite = die Anzahl der simultan erfassbaren Sinnesmodalitäten) und depth (sensorische Tiefe = der Differenzierungsgrad innerhalb der einzelnen sensorischen Dimensionen)
Interactivity: Der Grad, zu dem die Rezipient*innen Form oder Inhalt des Mediums beeinflussen können, ist abhängig von:
speed (die Geschwindigkeit, mit der Informationen von der virtuellen Welt assimiliert werden),
range (repertoire= die Anzahl der verfügbaren Verhaltensalternativen zu irgendeinem Zeitpunkt),
mapping(die Fähigkeit des Systems, die jeweiligen Handlungsspielräume in natürlicher und vorhersehbarer Weise auf das Rezipient*innen-Verhalten anzupassen)
HCI - Benutzerfreundlichkeit
Primäres Ziel in der HCI:
Einrichtung benutzerfreundlicher Schnittstellen, d. h. eine hohe Gebrauchstauglichkeit (Usability) von Software und Hardware.
Gebrauchstauglichkeit (Usability):
Nutzer*innen sollen durch die Technologie unterstützt werden, in einem gegebenen Nutzungskontext ihre Ziele effektiv, effizient und zur Zufriedenheit (auch Akzeptanz) zu erreichen.
Effektivität: Das genutzte Medium zur Bearbeitung einer Aufgabe muss es ermöglichen, dass das Ziel erreicht werden kann
Effizienz = Verhältnis von einzusetzenden Ressourcen (z.B.Zeit, kognitive Beanspruchung) und Ertrag sollte günstug ausfallen (optimale Kosten-Nutzen-Relation)
Effizienz & Effektivität: über objektiv messbare Parameter bestimmbar
Zufriedenheit/Akzeptanz: subjektive Erleben im Kontext der Mensch-Maschine-Interaktion (Nutzung der Technologie sollte subjektiv auch als zufriedenstellend empfunden werden & Spaß machen)
teilweise auch über objektive Parameter erfassbar: kann über Häufigkeit der Nutzung einer App deren Beliebtheit und Akzeptanz abschätzen
subjektiv messbar über positive Bewertung
Die Usability von HCI-Schnittstellen hängt damit von folgenden Variablen ab:
Unabhängige Variablen: Gestaltung von In-und Output
Abhängige Variablen: Kriterien für die Interfacegestaltung (Effektivität, Effizienz und Zufriedenheit/Akzeptanz)
Moderierende Variablen: z. B. Aufgabe und Charakteristika der Nutzer*innen
z. B. Expert*innen vs. Noviz*innen
beeinflussen Effekt von UV auf AV
Allgemein:
Die Gebrauchstauglichkeit einer Technologie kann nicht kontextunabhängig bestimmt werden.
Bsp.: Stabmixer für Gemüse vs Beton
HCI –Benutzerfreundlichkeit: UVs
Input = alle Möglichkeiten, mit Eingabegeräten die von den Nutzer*innen gesendeten Informationen in die für den Computer verständlichen Signale umwandeln zu können.
Output = umfassen alle Ausgabetechnologien, die die internale Repräsentation des Computersystems in eine für Menschen wahrnehmbare Informationsform umwandeln (z. B. visuell und auditiv)
Nach ISO 9241 werden Kriterien angeführt, die eine optimale Gestaltung insb. der Output-Seite garantieren sollen:
Aufgabenangemessenheit
Die angebotenen Funktionen zur Bearbeitung einer bestimmten Aufgabe sind der Komplexität dieser Aufgabe angemessen und erfordern keine unnötigen Interaktionen.
Das Löschen von digitalen Dateien sollte z.B. wenige Klicks erfordern statt eine komplizierte Menüführung
Selbstbeschreibungsfähigkeit
Das Programm und seine Funktionalitäten sollten möglichst selbsterklärend sein
An allen Stellen im Arbeitsprozess, an denen Unklarheiten bestehen, sollte das Programm über Hilfefunktionen notwendige Information anbieten
Steuerbarkeit
Das Programm bzw. System sollte es den Nutzer*innen erlauben, alle für die Bearbeitung einer Aufgabe kritischen Arbeitsschritte selbst steuern zu können (aber ggf. nicht müssen).
Ein Negativbeispiel für (Nicht-)Steuerbarkeit wäre eine App, die vermeintlich immer irgendwelche Dinge tut, die man als Nutzer*in eigentlich gar nicht intendiert hat und man somit nur einen beschränkten Einfluss auf diese Prozesse nehmen kann.
Erwartungskonformität
Das Ergebnis eines Befehls, welchen man dem Programm gibt, sollte dem erwarteten Ergebnis entsprechen.
Um ein solches System bzw. Programm konstruieren zu können, muss man sehr genau die Zielgruppe der Nutzer*innen definieren und ihr mentales Modell der Arbeitsabläufe und ihre individuelle Vorerfahrung (Expertise) berücksichtigen.
Fehlerrobustheit/toleranz
Das System soll es den Nutzer*innen ermöglichen, bei Ein-oder Ausgabefehlern die Arbeitsprozesse rückgängig machen zu können, ohne den Verlust der bisher erreichten Zwischenergebnisse
Individualisierbarkeit
Das System bzw. Programm sollte es erlauben, Aspekte der Interfacegestaltung an die individuellen Bedürfnisse der Nutzer*innen anpassen zu können.
So erlauben die gängigen Betriebssysteme für Computer und Smartphones eine individuelle Anordnung von App-Symbolen, Farbgebung, Schriftgrößen etc.
Lernförderlichkeit:
Das Programm sollte die Nutzer*innen dabei unterstützen, seine Funktionen in möglichst kurzer Zeit sicher erlernen zu können.
Das kann beispielsweise über Tutorials erfolgen oder auch die sinnvolle Verwendung von Interface-Metaphern.
HCI –Benutzerfreundlichkeit: UVs (Kriterien nach Shneiderman)
Einen anderen Katalog mit acht Kriterien schlägt Shneiderman(1998) vor:
Streben nach Konsistenz: Farbgebung, Begrifflichkeiten und Handlungsschritte in ähnlichen Aufgabensituationen sollen Konsistenz aufweisen
Shortcuts für erfahrene Nutzer ermöglichen: Spezielle Tastenfunktionen für erfahrene Nutzer*innen sollen Bearbeitungszeiten verkürzen
Informative Feedbacks anbieten: Für jede Aktion mit dem System sollte ein unmittelbares Feedback angeboten werden (z. B. visuell oder auditiv)
Geschlossene Dialog-Systeme gestalten: Handlungssequenzen in Gruppen mit Anfang, Mitte, Ende (Bsp. Geldautomat) unterteilen
Einfache Fehlerprävention- und Behebung anbieten: Prävention z. B. durch vorgegebene, anwählbare Optionen im Multiple-Choice Format statt direkter Eingabe; Behebung z. B. via Systemwiederherstellung oder Hilfe-Option
Umkehrbarkeit von Aktionen erlauben
Internale Kontrollüberzeugung: Nutzer*innen sollen Kausalität zwischen eigener Aktion und Ergebnis erkennen können; unvorhersehbare, überraschende Systemaktionen sowie die Unmöglichkeit, auf bestimmte Prozesse Einfluss zu nehmen, mindern die Benutzerfreundlichkeit
Belastung des Arbeitsgedächtnisses reduzieren: Begrenzte Kapazität des Arbeitsgedächtnisses berücksichtigen (+/-5-7 Informationseinheiten parallel)
HCI –Benutzerfreundlichkeit: Multimodalität
Multimodalität
Multimodalität soll die Bedienbarkeit von Computersystemen erleichtern, z. B. durch kombinierte visuelle und auditive Ausgabe
Multimodalität führt aber nicht automatisch zu höherer Benutzerfreundlichkeit.
Mögliche Probleme können z. B. sein:
Intendierte Redundanz bei der Informationsübermittlung (Ausgabeseite) über mehrere sensorische Kanäle (z. B. visuell + auditiv) schlägt fehl, wenn dabei semantische Diskrepanzen zwischen den verbal und piktoralkodierten Botschaften bestehen.
Komplementarität auf der Eingabeseite von z. B. Sprache und Gestik; die Informationen, die über die beiden Kanäle übermittelt werden, sind nicht immer deckungsgleich.
Nutzer*innen unterscheiden sich ggf. darin, ob sie den Input zweier zusammengehöriger Signale (z. B. Sprache + Gestik) simultan leisten oder sequentiell; das System muss in der Lage sein, dieses zu erkennen.
Nicht jede Information kann über jeden Kommunikationskanal transportiert werden.
Beispiel:
Beim erfolgreichen Abschluss einer Aufgabe/ eines Arbeitsschrittes erscheint sowohl eine visuelle Bestätigung über ein aufpoppendes Feld als auch ein akustisches Signal ertönt
-> Wenn nun das entsprechende Feld zwar erscheint, gleichzeitig aber der Ton ausbleibt oder gar ein anderer ertönt, kann dies zu Verwirrung über den korrekten Abschluss des Arbeitsprozesses führen.
Gleiches gilt für die Eingabeseite: Wenn ich auf dem Smartphone über das Textfeld eine Suchanfrage eintippe und gleichzeitig etwas ausspreche, was den Sprachassistenten zur Initiierung eines anderen Prozesses veranlasst, ist dies hinderlich.
HCI –Benutzerfreundlichkeit: Anforderungsanalyse
Die Anforderungen an die Schnittstelle hängen von der konkreten Aufgabe und der Art der Nutzer*innen-Gruppe(n) ab.
Beides kann im Rahmen einer Anforderungsanalyse identifiziert werden
Anforderungsanalyse umfasst folgende Aspekte:
Bedarfsanalyse:
Wie sollte eine neue Technologie aus Sicht der Nutzer*innen, anderer Interessenvertreter*innen und ggf. der Organisation gestaltet sein (was wird z. B. von einer Software erwartet, was soll sie können)?
Aufgabenanalyse:
Welche Aufgaben sollen bearbeitet werden und welche Methoden oder Aktivitäten sind dazu erforderlich?
Nutzeranalyse
Wissen und Vorerfahrung
Sozio-demographische Variablen
Psychologische Aspekte (z. B. Ängste vor Einführung neuer Technologien)
Physische Einschränkungen und Behinderungen (z. B. Rot-Grün-Blindheit)
Ggf. organisationale Zugehörigkeit und Einbindung (manche Abteilungen eines Unternehmens benötigen z. B. nur Zugriff auf bestimmte Funktionen einer umfangreichen Software, andere Bereiche brauchen Zugriff auf alle Funktionen)
HCI –Benutzerfreundlichkeit: Moderatorvariablen (Shneiderman)
Shneiderman(1998) nennt folgende Personenvariablen, die auf die Bedienbarkeit einer Schnittstelle Einfluss nehmen:
Physische Variablen (u. a. Körperbau und perzeptuelle Unterschiede)
Kognitive Variablen (u. a. Problemlösefähigkeit)
Persönlichkeitsvariablen
Kulturelle Variablen (u. a . Leserichtung, Farbpräferenzen)
Behinderungen (u. a. körperliche und Lernbehinderungen)
Alter
Eine besondere Personenvariable ist die Expertise (Noviz*in, durchschnittliche*r Nutzer*in, Expert*in)kann festgestellt werden anhand:
Häufigkeit und Länge des Gebrauchs der Technologie
Wissensspektrum
Subjektiver Aspekte (z. B. wahrgenommene Kontrolle, Ängstlichkeit)
HCI –Iteratives Entwicklungsmodell nach ISO 13407
Interaktive Systeme und Programme werden in einem zyklischen Prozess iterativ entwickelt
Fängt oft mit sehr einfachen Prototypen an, die z.B. nur in Form von Ablaufplänen oder als Papier-Prototypen vorliegen.
Erst später geht man dann zum programmierten (oder gebauten) Prototypen über
Am Ende einer Schleife dieses iterativen Prozesses steht eine Evaluationsphase, in der sogenannte Usability-Tests durchgeführt werden.
heutzutage werden Programme häufig unter Einbeziehung der zukünftigen Nutzer*innen in einer Testphase breit geprüft
manchmal werden aber auch scheinbar unfertige Produkte veröffentlicht und auf Basis von Fehlerprotokollen und Beschwerden der Nutzer*innen im Nachgang durch Patches sukzessive verbessert (wenn möglich –bei Hardware ist das nicht so einfach, dann gibt es ggf. eine große Rückruf-Aktion).
Lautes Denken
Beim Lauten Denken geht es darum, dass eine Person all ihre Gedanken, die sie während der Bearbeitung einer Aufgabe hat (z. B. in einem Usability-Test), möglichst ungefiltert laut ausspricht (auch retrospektiv, also wenn man Perosn fragt an was sie sich erinnert)
Auf diese Weise sollen z. B. kognitive Strategien bei der Aufgabenbearbeitung, Prozesse des Problemlösen und Schlussfolgerns aufgedeckt werden, was keine andere Datenerhebungsmethode sonst ermöglicht
-> Man erhofft sich so Rückschlüsse auf möglicherweise ungünstige Interface-Metaphern, mangelnde Selbstbeschreibungsfähigkeit des Programms/Systems, mangelnde Erwartungskonformität, irreführende Menüstruktur, ästhetische Bewertungen des Layouts
Die Frage lautet dabei: In welchem Maße ist ein Mensch überhaupt in der Lage, kognitive Vorgänge korrekt und ungefiltert (d. h. unter anderem unbewertet und unzensiert) zu verbalisieren?
Die Brauchbarkeit der so gewonnenen Daten wird bis heute kontrovers diskutiert
HCI: Lautes Denken
Es gibt verschiedene Varianten des Lauten Denkens die sich bzgl. des Zeitpunktes relativ zur Aufgabenbearbeitung unterscheiden:
Periaktionales Lautes Denken (concurrent/simultan think-aloud): Es wird während der Aufgabenbearbeitung parallel verbalisiert
Postaktionales Lautes Denken (retrospectivethink-aloud): Es wird nach der Aufgabenbearbeitung laut gedacht, wobei dies zusätzlich durch Videoaufnahmen der Handlung erleichtert werden kann (z.B. in Form einer Videokonfrontation)
Vergleich periaktionalvs. postaktional:
+ die aktuellen Kognitionen und Inhalte des Kurzzeitgedächtnisses werden unmittelbar verbalisiert (Inhalte des Kurzzeitgedächtnisses sind anfällig dafür, schnell verloren zu gehen und können auch durch unterstützende Videoaufzeichnungen beim retrospektiven Lauten Denken nicht reaktiviert werden)
- Es müssen parallel immer mindestens zwei Aufgaben bearbeitet werden: die eigentliche(n) Aufgabe(n) in der Untersuchung sowie die gleichzeitige Verbalisierung. Dabei kann es zu Interferenzen kommen;
-> So kann das Laute Denken die Aufgabenbearbeitung erschweren, weil kognitive Kapazitäten abgegriffen werden
-> oder es kann die Aufgabenbearbeitung erleichtern, indem es z.B. bei Problemlöseaufgaben ein strukturierteres Denken anregt.
Last changed5 months ago