Was ist das Ziel der Feature-Definition bei der Bildklassifikation?
Merkmale (Features) sollen extrahiert werden, die charakteristische Eigenschaften der Bilder erfassen, um eine zuverlässige Unterscheidung und Klassifikation zu ermöglichen.
Welche zwei Features wurden im Beispiel zur Bildklassifikation verwendet?
Umfang vertikaler Linien
Durchgängigkeit der Linien (Anzahl der Lücken)
Wie wird der Umfang vertikaler Linien bestimmt?
Durch Anwendung eines Sobel-Filters in vertikaler Richtung auf das Bild. Der Filter hebt vertikale Kanten hervor.
Wie wird die Durchgängigkeit (Anzahl der Lücken) in Linien analysiert?
Durch Vergleich des Originalbilds mit einem dilatierten Bild (Morphologische Operation). Die Differenz liefert Hinweise auf vorhandene Lücken.
Wie erfolgt die Klassifikation anhand der Features?
Die extrahierten Features (z. B. Linienumfang und Lückenanzahl) werden als Punkte im Merkmalsraum dargestellt. Eine Trennlinie kann manuell oder automatisch (z. B. durch SVM) ermittelt werden.
Was ist eine Support Vector Machine (SVM)?
Ein überwacht lernender Klassifikator, der eine optimale Trennlinie (Hyperplane) zwischen Klassen im Merkmalsraum berechnet – mit maximalem Abstand zu den nächsten Punkten (Support Vectors).
Was ist der Unterschied zwischen einer linearen Regression und einer SVM?
Lineare Regression: Schätzt kontinuierliche Werte
SVM: Klassifiziert durch Finden einer Trennfläche mit maximaler Margin SVM kann besser mit überlappenden Klassen umgehen, besonders mit geeigneter Loss-Funktion.
Was ist die „Hinge Loss Funktion“?
Eine Verlustfunktion für SVMs, die bestraft, wenn Punkte innerhalb des Margins oder auf der falschen Seite der Trennlinie liegen.
Was ist die „Epsilon Insensitive Loss Function“?
Eine Verlustfunktion für Regressionsaufgaben, die Abweichungen innerhalb eines Toleranzintervalls (ε) ignoriert. Nur größere Abweichungen verursachen Fehler.
Wie funktionieren SVMs mit Kernels?
SVMs können durch Kernel-Funktionen Daten in höhere Dimensionen abbilden, wo eine lineare Trennung möglich ist – ohne explizite Transformation der Daten.
Nenne Beispiele für Kernel-Funktionen in SVMs.
Linearkernel
Polynomialkernel
Radial Basis Function (RBF) / Gauß’scher Kernel
Sigmoidkernel
Wann ist der Einsatz von Kernel-SVMs sinnvoll?
Wenn sich die Klassen im ursprünglichen Raum nicht linear trennen lassen – der Kernel ermöglicht nichtlineare Entscheidungsgrenzen.
Was sind Support Vectors?
Die Datenpunkte, die am nächsten an der Trennlinie (Hyperplane) liegen. Sie bestimmen die Lage und Orientierung der Trennfläche.
Was passiert, wenn man zu wenige oder zu viele Trainingsbeispiele hat?
Zu wenige: Klassifikator verallgemeinert schlecht
Zu viele: Risiko von Overfitting oder längerer Trainingszeit – Regularisierung notwendig
Zuletzt geändertvor 16 Tagen