Buffl uses cookies to provide you with a better experience. You can find more information in our privacy policy.
WIe kann die Proxemik helfen die Ausführung von Aufgaben weniger mühsam zu machen?
Genau wie Menschen mit zunehmender Nähe zu anderen eine verstärkte Interaktion und Intimität erwarten, sollten Geräte auch eine zunehmende Konnektivität und Interaktionsmöglichkeiten erwarten, wenn sie ihre Geräte in enge Nähe zueinander und zu anderen Dingen in der Umgebung bringen.
Auf was bezieht sich Ubicomp-Proxemik?
auf den zwischen-Entitäten-Abstand, wobei Entitäten eine Mischung aus Menschen, digitalen Geräten und nicht-digitalen Dingen sein können.
Nenne die 5 proxemischen Dimensionen und erkläre sie
Entfernung:
"Entfernung" ist eine diskrete Messung dessen, in welcher Zone sich eine Entität in Bezug auf eine andere Entität befindet. Im einfachsten Fall handelt es sich nur um eine binäre Messung, z. B. ob eine Entität im selben Raum wie eine andere Entität ist oder nicht.
Orientation/Ausrichtung:
Ausrichtung liefert Informationen darüber, in welche Richtung eine Entität zeigt. Dies ergibt nur dann Sinn, wenn eine Entität eine klar definierte 'Front' hat (z. B. die Augen einer Person, die Spitze eines Bleistifts). Ähnlich wie bei der Position können wir zwischen der absoluten Ausrichtung einer Entität (z. B. beschrieben durch Gieren, Neigen und Rollen) oder der relativen Ausrichtung unterscheiden (z. B. eine quantitative Beschreibung wie "diese Person sieht auf dieses Objekt"). Aus der Ausrichtung lässt sich bestimmen, wo sich ein Strahl, der von einer Entität ausgeht, mit einer anderen Entität schneiden würde (Ray Casting).
Identität:
beschreibt eindeutig die Entität. Dies kann von einer detaillierten Messung mit genauer Identität und Attributen bis zu einer weniger detaillierten Messung reichen, wie beispielsweise dem Typ einer Entität, oder zu einer minimalen Messung, die einfach eine Entität von einer anderen unterscheidet.
Bewegung:
erfasst die Entfernung und Ausrichtung einer Entität über die Zeit. Dabei können verschiedene Aktionen abhängig von Faktoren wie der Geschwindigkeit der Bewegung und davon, ob eine Entität sich in Richtung oder weg von einer anderen Entität bewegt und dreht, durchgeführt werden.
Position:
beschreibt den physischen Kontext, in dem sich die Entitäten befinden, zum Beispiel einen bestimmten Raum und seine Merkmale. Ortsmessungen können kontextuelle Aspekte erfassen, wie etwa wenn eine Entität eine Schwelle (ein festes Merkmal) überschreitet und damit ihre Anwesenheit in einem Raum markiert. Der Ort ist wichtig, da die Bedeutung, die den vier anderen zwischen-Entitäten-Maßen zugeordnet wird, vom kontextuellen Ort abhängen kann.
Welche Unsicherheiten müssen für proxemische Interaktionen gelöst werden?
nicht immer ist es sinnvoll, wenn sich das System an bebstimme Verhaltensregeln hält -> eventuell dynamisches Lernen von Verhaltensregeln
Die meisten Eingaben werden (zumindest in naher Zukunft) wahrscheinlich von geringer Qualität sein, begrenzt, viele Ungenauigkeiten enthalten (einschließlich Rauschen), kritische Informationen verpassen usw.
ist noch relativ neue Arbeit -> Wir verstehen die Mensch-Computer-Interaktion (HCI) der Proxemik noch nicht.
Was beschreibt Proxemik?
Sie beschreibt, wie Menschen Distanz, Haltung und Ausrichtung wahrnehmen, interpretieren und nutzen, um Beziehungen zu anderen Menschen und zu den festen (unbeweglichen) und halbfesten (beweglichen) Merkmalen ihrer Umgebung zu vermitteln
Wie sind die Distanzen eingeteilt?
intime 6-18 Zoll, persönliche 1,5-4 Fuß, soziale 4-12 Fuß und öffentliche 12-25 Fuß Distanzen
Beschreibe das Heim-Media-Player Szenario. Wie reagiert der Bildschirm auf Fred?
Wenn Fred den Raum betritt, erkennt der Media Player Fred und wo er steht. Er aktiviert das Display, zeigt eine kurze Animation an, um anzuzeigen, dass es aktiviert ist, und zeigt dann vier große Video-Vorschau-Thumbnails aus Freds Mediensammlung an
Wenn Fred sich dem Display nähert, schrumpfen die Video-Vorschau-Thumbnails und -Titel kontinuierlich auf eine kleinere Größe, wodurch eine zunehmende Anzahl verfügbarer Videos angezeigt wird.
Wenn Fred sehr nah an der Oberfläche ist, kann er ein Video direkt auswählen, indem er auf das Thumbnail auf dem Bildschirm tippt. Detailliertere Informationen zum ausgewählten Video werden dann auf dem Display angezeigteinschließlich einer Vorschauwiedergabe, die abgespielt und pausiert werden kann
Wenn Fred sich vom Bildschirm entfernt, um sich auf das Sofa zu setzen,beginnt sein aktuell ausgewähltes Video in der Vollbildansicht abzuspielen (Von Anfang oder letzter Widergabe.
Er zieht sein Mobiltelefon heraus und richtet es auf den Bildschirm für einen anderen Film. Aus seiner Position und Ausrichtung erkennt das System das Telefon als Zeiger, und unten auf dem Bildschirm erscheint eine Reihe von Vorschauvideos. Ein visueller Zeiger auf dem Bildschirm gibt Rückmeldung zur genauen Zeigerposition von Freds Telefon relativ zum Bildschirm. Fred wählt dann die gewünschten Videos aus, indem er die Hand nach unten wirft, und das Video beginnt abzuspielen. Alternativ hätte Fred einen nicht-digitalen Stift für dieselbe Interaktion verwenden können.
Hält an, wenn Fred telefoniert oder sich abwendet, um etwas anders zu tun und geht weiter, wenn er die Aufmerksamkeit wieder darauf lenkt.
Beschreibe das Heim-Media-Player. Wie reagiert der Bildschirm auf George, wenn Fred schaut
Geogre kommt rein, der Titel des gerade abgespielten Videos erscheint oben auf dem Bildschirm, um George mitzuteilen, welches Video gerade läuft.
Wenn George sich dem Display nähert, werden am Bildschirmrand, an dem er steht, detailliertere Informationen zum aktuellen Video angezeigt
Wenn George sich direkt vor den Bildschirm bewegt (und somit Freds Sicht blockiert), pausiert die Videowiedergabe und der Browsing-Bildschirm wird angezeigt.
George kann nun andere Videos auswählen, indem er den Bildschirm berührt. Die Ansicht wechselt wieder in den Vollbildmodus, sobald beide sich setzen, um das Video anzusehen.
Wenn Fred und George anfangen, miteinander zu sprechen, pausiert es.
Beschreibe das Heim-Media-Player, wenn Fred mit dem tragbaren Media-Player interagiert
Fred holt seinen persönlichen tragbaren Media-Player aus der Tasche. Eine kleine Grafik, die das mobile Gerät darstellt, erscheint am Rand des großen Displays und zeigt an, dass Medieninhalte zwischen der Oberfläche und dem tragbaren Gerät geteilt werden können
Fred bewegt sich näher zur Oberfläche, während er sein Gerät darauf zeigt; die Grafik auf der Oberfläche reagiert, indem sie fortschreitend und kontinuierlich mehr Informationen über den Inhalt auf dem Media-Gerät preisgibt.
Wenn Fred direkt vor der Oberfläche steht und dabei das Gerät hält, sieht er große Vorschau-Bilder des Videoinhalts des Geräts und kann dann Videos zwischen der Oberfläche und dem tragbaren Gerät übertragen, indem er deren Vorschau-Bilder zieht und ablegt. Die Videowiedergabe auf dem großen Bildschirm wird fortgesetzt, nachdem Fred sein tragbares Gerät wieder in die Tasche gesteckt hat und sich auf das Sofa setzt.
Wenn alle Personen den Raum verlassen, stoppt die Anwendung die Videowiedergabe und schaltet den Bildschirm aus.
Nenne und erkäre die Konzepte für Designen von proxemischen Interaktionen
Integration des festen und halbfesten Merkmalsraums
Interpretation der gerichteten Aufmerksamkeit auf Personen und Objekte
Unterstützung fein abgestimmter expliziter Interaktion
Interpretation von kontinuierlichen Bewegungen oder diskreten proxemischen Zonen
Übergang von der Wahrnehmung zur direkten Interaktion:
Nutzung der Identität von Personen:
Vermittlung der gleichzeitigen Interaktion von Personen:
Unterschiede in der Wahrnehmung und Interpretation von Proxemik:
Nenne Interpretationen der gerichteten Aufmerksamkeit auf Personen und Objekte
Aufmerksamkeit auf das System selbst tritt auf, wenn das Gerät darauf reagiert, wie es betrachtet wird. Dies ist die Funktionsweise der meisten herkömmlichen AUIs (Attentive User Interfaces). Wir integrieren ein Beispiel dieses Verhaltens in unsere Media-Player-Anwendung: Das System spielt das Video ab, solange mindestens eine Person auf das große Display schaut, pausiert jedoch, wenn diese Person für eine bestimmte Zeit weg schaut.
Aufmerksamkeit auf andere umgebende Objekte und Geräte. Wir bereichern das Konzept der AUIs, indem wir einbeziehen, wie die gerichtete Aufmerksamkeit einer Person auf andere umgebende Objekte des halbfesten Merkmalsraums implizite Reaktionen des Systems auslösen kann. (Video pausiert, wenn Fred eine Zeitung liest, aber nicht, wenn er eine Schüssel Popcorn hält).Eine Verschiebung der Aufmerksamkeit kann auch durch die relative Entfernung eines Objekts zur Person angedeutet werden (Telefonbeispiel) Die Messung der relativen Entfernung des Telefons zum Kopf der Person sowie deren Ausrichtung zueinander lieferte die notwendigen Informationen für das System, um implizit auf diese Situation zu reagieren.
Aufmerksamkeit auf andere Personen. Wir können unterscheiden, wie eine Person auf andere Menschen achtet, um implizite Systemreaktionen auszulösen. Zum Beispiel Fred und George, wenn sie sich einander zuwandten, um zu sprechen (Video pausiert)
Was passierte bei der Unterstützung fein abgestimmter expliziter Interaktion?
Anstatt implizit auf die proxemische Beziehung einer Person zu anderen halbfesten Umgebungsobjekten zu reagieren, können diese Beziehungen auch explizite Formen der Interaktion einer Person mit dem System ermöglichen. Wir führen das Konzept ein, physische Objekte als mobile Tokens zu verwenden, die Menschen verwenden können, um ihre explizite Interaktion mit einer interaktiven Oberfläche zu vermitteln
Wie funktionierte die Unterstützung fein abgestimmter expliziter Interaktion im Heim-Media-Player Szenario?
alle erfassten mobilen Objekte werde als mobile Tokens interpretiert.
Drei Einheiten von Informationen führten dazu, dass unser System dieses Token als Zeigegerät interpretierte: Es wird vor einer Person gehalten, es ist grob auf die Anzeige ausgerichtet, und es befindet sich in einer bestimmten Entfernung von der Anzeige.
Nenne den Vorteil mobiler Tokens
Mobile Tokens schaffen einen spezifischen Kontext zur Unterscheidung und Interpretation von Gesten, wobei sie die Entfernung und Position der Objekte relativ zur Person und zu anderen Objekten nutzen, um einen bestimmten expliziten Interaktionsmodus abzuleiten.
Wie entsteht kontinuirlches Bewegen?
Für kontinuierliche Bewegung fungieren die berechneten Abstände zwischen Menschen und Geräten als Eingangsvariablen, die kontinuierlich das Verhalten des interaktiven Systems beeinflussen.
Was beschreibt die Interpretation kontinuierlicher Bewegungen oder diskreter proxemischer Zonen?
Beschreibt, dass das Verhalten proxemischer Schnittstellen auf die Position und Entfernung ihrer Entitäten entweder als kontinuierliche Bewegungen oder als Bewegungen in und aus diskreten proxemischen Zonen reagieren kann.
Was können wir mit diskreten proxemischen Zonen machen?
Mit diskreten proxemischen Zonen können wir den Raum in diskrete Regionen unterteilen. Wenn eine Person diese Zonen betritt oder verlässt, werden bestimmte Aktionen im System ausgelöst.
Nenn das Problem mit diskreten Zonen und wie es gelöst wird
Ein Problem, das mit diskreten Zonen verbunden ist, tritt auf, wenn die Schnittstelle schnell zwischen zwei Zuständen hin und her wechselt. Dies geschieht, wenn die Person genau an einer Grenze einer der diskreten Zonen steht. Dies wird durch das Konzept einer Hysterese-Toleranz gelöst: Der Ein- und Ausgangspunkt jeder Region sind nicht im gleichen Abstand, sondern zwei separate Abstände.
Fixed features haben eine abgrenzende Funktion und sind (ohne Weiteres) nicht veränderbar. Diese Grenezen haben einen Einfluss auf die sozialen Aktivitäten.
z.B. die Tür die einen Raum begrenzt
Semi-fixed features haben veränderbare Positionen, die wiederum auch einen Einfluss auf die sozialen Aktivitäten haben
z.B. Stühle die in einem Raum stehen und variabel angeordnet werden können
Technische Herausforderungen
z.B. sind manche Features zu groß um semi-fixed zu sein obwohl es so besser wäre (Dialysegeräte)
Herausforderungen bei der Interpretation
z.B. Gewünschte vs Erzielte Interpretation des devices (Falsche Interpretation von Blicken)
Datenschutz und Sicherheit
z.B. Alexa das immer mithört
Last changeda year ago