Satosi Watanabe
Buch: Pattern Recognition: Human and Mechanical (1985)
10 Kapitel, relativ weit gefasster Begriff der Mustererkennung
Betrachtung des Problems aus verschiedenen Perspektiven
geb.: Tokio (1910)
Kernphysiker in Deutschland, IBM scientist, Professor an Yale und University of Hawaii
Mustererkennung als “eins in vielen” sehen
Wittgenstein: Mustererkennung: etwas1 als etwas2 sehen
duckrabbit -> Bild: etwas1, Ente / Kaninchen: etwas2
Mustererkennung: ein Objekt als Teil einer Familie / Kategorie (die wir kennen) identifizieren
viele (verschiedene Objekte) auf eines (eine Kategorie) reduzieren
Mustererkennung als Wahrnehmung
Wahrnehmung hängt nicht nur von Objekt ab (etwas2 ist nicht direkt durch etwas1 vorgegeben)
Wahrnehmung stark abhängig von
emotionalem Zustand des Betrachters
Kontext
Wahrnehmung ist ein mentales Konstrukt, hängt von Aufmerksamkeit und unserem Bias ab
Mustererkennung als Kategorisierung
Beziehung zwischen tatsächlichen Objekten und allgemeinen Konzepten
Konzept: Universal
Philosophie:
Realismus: Universals existieren tatsächlich
Nomialismus: Universal ist nur ein Begriff (Wort)
Konzeptualismus: Universal existiert nicht in der Realität, aber in unserer Vorstellung
Ähnlichkeitstheorie:
Klasse als Sammlung ählicher Objekte
allg. Annahme: Objekte existieren wirklich, nicht aber die Universals
Problem: “Ähnlichkeit” hängt wieder von der Betrachtung ab
Mustererkennung als wertorientierte Gewichtung
Idee / Ansatz: Ähnlichkeit zweier Objekte kann durch Anzahl der Gemeinsamkeiten gemessen werden
atomare Prädikate -> rank 1, 2, …
wenn Objekte durch n Prädikate beschrieben: 2^n mögliche Typen von Objekten, jeder Typ korrespondiert zu einem atomaren Prädikat
Problem: zwei unterscheidbare Objekte korrespondieren zu zwei Atomen -> Anzahl gemeinsamer Prädikate ist 2^m-2 (konstant)
Ugly Duckling Theorem: zwei unterscheidbare Objekte sind gleich ähnlich, da Anzahl gemeinsamer Prädikate konstant ist
Ursache des Problems: alle Prädikate sind als gleich wichtig betrachtet worden, müssen aber gewichtet werden
Kriterium: Nutzen der Klassifikation -> Use-Case-spezifisch
Mustererkennung als Induktion
Deduktion: allgemeine Regel -> spezifische Fakten
Induktion: erkenne allgemeine Regel anhand von begrenzter Anzahl an Fakten / Beispielen
Problem: oft nicht genug Evidence vorhanden, um Hypothesen zu bestätigen / widerlegen
inductive ambiguity: weitere Faktoren nötig, um Entscheidungen zu treffen (z.B. prior P(H) in Bayes rule, der wird aber oft ignoriert)
Heuristiken / menschliche Erfahrung (Wissen) kann als extra-evidential factor eingesetzt werden
Mustererkennung als statistische Entscheidungen
Lernphase bestimmt P(x | y)
Entscheidung ist durch d(x) = y mit maximaler Wahrscheinlichkeit P(y|x) definiert
Problem: Wahrscheinlichkeit P(y|x) kann nicht allein durch P(x|y) bestimmt werden (Bayes Regel benötigt Priors, die nicht bestimmt werden können)
Zuletzt geändertvor 10 Monaten