Wofür braucht man die Kantenfilterung?
Kanten in einem Bild hervorheben, gänig dabei mir der Nutzung von Gradienten. Mit der ersten Ableitung kann man schauen wo die Kante liegt, aber die wirkliche Verbesserung macht man mit der zweiten Ableitung.
Wie funktioniert das Bildschärfen?
Im Grund durch das Anheben der hochfrequenten Bildanteile, die für den Schärfeeindruck des Bilders verantworklich sind. Im zweidimensionalen Fall verwendet man dafür die zweiten Ableitungen in horizontaler und vertikaler Richtung in Form des Laplace-Operators.
Wie funktioniert Grob der Laplace-Operator und was sagt der Faktor w aus?
Bild wird zu schärfung mit dem Laplace-Filter, gefilters und anschließend wird das Ergebnis vom ursprünglichen Bild subtrahiert. Der Faktor w bestimmt die Stärke der Schärfung. Laplance Filter macht also nicht anderes also nach links und rechts abzuleiten und Bereiche zu identifizieren die besonders wichtig sind.
Was passiert im Grund durch die Anwendung durch den Laplace-Operator?
Die Dunklen Pixel werden noch dunkler gemacht und die hellen Pixel werden noch heller gemacht. Also überall bei hohen Frequenzen wird das Bild optimiert.
Was sind eigentlich Kanten und warum sind diese so wichtig?
Kanten sind abrumpte Änderungen zwischen hell und dunkel, also eine abprumpte Änderung der Oberflächennormale. Kanten (sind eigenlich hohe Frequnzen) sind der leichteste Weg ein Bild bzw. dessen Semantik zu extrahieren.
Erkläre kurz einen Sobel Filter? Funktion? Anwendung? Vorteil?
Wird zu Kantenerkennung von Bildern verwendet und besteht aus seperatren 3x3 horizontalen und verikalen Kantenfiltern. Vorteil ist das er sehr effektiv bei der Erkennung von Kanten ist und insbesondere bei der Reduktion von Rauschen.
Erkläre kurz den Roberts Filter?
Ist ein 2x2 Filter, der in der diagonalen Richtung arbeitet, um die Kanten zu erkennen. Also auch zur Kantenerkennung und ist da besonders effektiv bei starken Kanten. Ist auch einfach zu Implementieren, aber weniger präzise bei der Rauschunterdrückung.
Erkläre kurz den Kirsch Filter?
Kirsch ist komplexer als die anderen und verwendet 8 vordefinierte Richtungen, um die Kanten in Bildern erkennen und verstärken. So können präzise Kanten in verschiedenen Richtungen erkannt werden. Ist daher auch sehr Robust gegen Rauschen und Richunngsänderungen. Aber viel Komplexer in der Implementierung.
Erkläre kurz den Prewitt Filter?
Ähnlich zum Sobel Filter und auch 3x3, mit dem unterschied das er eine andere Filtergewichtung hat. Prewitt verwendet eine gelichmäßige Gewichtung für vertikale und kotizontale Filter.
Was ist der Laplacian-of-Gaussian-Operator?
Dieser verbindet tatsächlich einen Gauß-Filter (Glättung) und die zweite Ableitung (Laplace-Filter) in einem gemeinsamen, linearen, Filter. Form ähnelt einen Mexikanischen Hut, daher Maxican Hat oder Sombrerofilter
Was ist die Grundidee der so genannten „Multi-Resolution oder „Multi-Scale“-Techniken?
Ursprüngliche Operationen auf verkleinerten (skalierten) Bilder anwenden. In der Kantendetection bedeutet das, zunächst Kanten auf unterschiedlichen Auflösungsebenen zu finden und dann an jeder Bildposition zu entscheiden, welche Kanten auf unterschiedlichen Auflösungsebenen zu finden und dann an jeder Bildposition zu entscheiden, welche Kante auf welcher der räumlihcen Ebenen domintant ist. Das macht Canny.
Was sind die Ziele von Canny?
1. Die Anzahl falscher Kanten-markierungen zu minimieren. 2. Kanten möglichst gut zu lokalisieren und 3. Nur eine Markierung pro Kante zu liefern. Der Canny-Operator ist im Kern ein Gradientenverfahren, das auf dem Gradientenbetragsbild eine lokale Maximums-Suche anwendet, um sicherzustellen, dass Kanten nur ein Pixel breit sind.
Warum wird er gegenüber normalen Kantendetektoren bevorzugt?
Meistens wird der Algorithmus nur in einer „Single-Scale“- Version verwendet, wobei aber durch Einstellung des Filterradius (Glät- tungsparameter σ des Gaussfilters) eine gegenüber einfachen Ope- ratoren wesentlich verbesserte Kantendetektion möglich ist.
Wann spricht man von isotropen Kantendetektoren?
Wenn der die Operatorantwort von der Richtung der Kante abhängt.
Was ist der Vorteil vom Laplacian of Gaussian Operator?
Der Laplacian-of-Gaussian-Operator ist vorteilhaft, weil er präzise Kanten in Bildern erkennt, invariant gegenüber Skalenänderungen ist und durch seine Multiskalen-Analyse feine Strukturen gut erfassen kann.
Welcher von den Operatoren ist skalierunginvariant?
Eigentlich noch der Laplacian Gaussian Operator.
Was sind Interest Points?
Sind Punkte auf einem Bild, die Merkmale durch ihre einzigartigkeit sehr gut beschreiben und sich zum Matching von Bilder eignen. Diese Punkte zeichnen sich durch lokale Intensiätsunterschiede, Ecken, Kanten oder Strukturen aus.
Wie funktioniert die Harris Corner Detection?
Wird für jeden Pixel im Bild die Harris Response Funktion berechnen und mit einem Schwellwert verglichen, um potentielle Eckpunkte zu identifizieren.
Was ist SIFT
Ein Verfahren zur Detektion und Beschreibung von lokalen Merkmalen in Bildern, das gegenpber Skalierung, Rotation und Helligkeitsänderungen robuster ist. Schritte: Skalenraumextrema-Detektion, der Keypoint-Lokalisierung und der Deskriptorextraktion.
Was ist SURF:
Weiterentwicklung von SIFT. Effizientere Berechnung und arbeitet schneller. Durch Haar Wavelet-Responses robuste Detektion bei geringen Rechenaufwand im Vergleich zu SIFT.
Was sind Globale Merkmale?
Globale Merkmale beschreiben das gesamte Bild (z.B. über ein Grauwerthistogram), sind aber im Allgemeinen nicht gut unterscheidbar und nicht robust genug.
Was sind Lokale Merkmale?
Beschreiben kleine Bildregionen und werden für die Anwendungen wie Bildregistrierung, Panorama Stitching, §D-Modellierung oder Objekterkennung verwendet.
Wie definiert sich eine Kante im Sinne von interest Points?
Eine Kante ist definiert als Stelle im Bild, an der der Gradient der Bildfunktion in einer bestimmten Richtung besonders hoch und orthogonal dazu besonders niedrig ist, weist ein Eckpunkt einen starken Helligkeitsunterschied in mehr als einer Richtung gleichzeitig auf.
Was bedeutet Invarianz:
Objekte oder Strukturen in Bildern zu identifizieren und zu beschreiben, auch wenn sie sich in ihrer Position, Ausrichtung, Größe oder Helligkeit verändern.
Haben Kanten Arten von Invarianz?
Ja Kanten sind invariant gegen skalierung, rotation und translation.
Beschreibe das Z-Buffer Verfahren?
Man braucht zwei Speicherbereiche:
Refresh buffer (Intensität) und depth buffer (Distanzinformationen)
In Rasterdarstellung umwandeln
- Dann vergleicht man in jedem Schritt welches polygon in z näher zum betrachter ist.
- Inkementell vogehen was auch der Vorteil ist, man braucht keine history quasi, sondern vergleicht immer nur in einem Schritt näher oder nicht.
Beschreibe das Lampsche Gesetz, auch bekannt als Lambert’s Law?
Das Lampsche Gesetz beschreibt die Intensität der diffusen Reflexion von Licht auf einer undurchsichtigen, matten Oberfläche. Es besagt, dass das einfallende Licht gleichmäßig in alle Richtungen gestreut wird. Dies gilt ausschließlich für raue, matte und undurchsichtige Oberflächen und nicht für glatte, spiegelnde oder transparente Oberflächen. Weiterhin besagt das Gesetz, dass die Intensität der diffusen Reflexion nur von der Orientierung der Oberfläche relativ zur Lichtquelle abhängt und nicht von der Position des Betrachters. Es wird durch den Kosinus des Winkels zwischen dem einfallenden Licht und der Oberflächennormalen beschrieben.
Was ist der Vorteil von maschinellem Lernen?
Modelle können aufgrund selbstlernender Algorithmen und existierienden Daten Rückschlüsse ziehen ohne diese Programmieren zu müssen.
Welche Kategorien hat Maschinelles Lernen?
Überwachtes (supervised learning)
§ Ziel: Maximieren der Genauigkeit der Vorhersagen.
- Unüberwachtes (unsupervised learning)
§ Verwendung vorallem wenn ein Datensatz keine präzisen Ausgabewerte aufweist. So können hier basierend auf den Eingabedaten bisher unbekannte Muster und Zusammenhänge abgeleitet werden.
- und bestärktes Lernen (Reininforcement learning)
§ basiert der Lernprozess des Algorithmus auf den Formen der Belohnung und Bestrafung mit dem Ziel, den Nutzen zu maximieren
Erkläre Überwachtes (Supervised learning) genauer:
Um den Ausgabewert präzise vorherzusagen, wird der Datensatz in ein Trainings- und ein Testset aufgeteilt. Das Modell lernt aus dem Trainingsset die Beziehung zwischen Eingabewerten und Zielvariablen. Anschließend wird seine Leistung mit dem Testset evaluiert, um Genauigkeit und Fehlerquote zu bestimmen. So wir die genauigkeit von Vorhersagen erhöht.
Was ist die häufigste Anwendung in Coputer Vision von Maschinellem Lernen?
In CV ist die häufigste Anwendung des Maschinellen Lernen die Klassifikation anhand von Merkmalen, wobei die Merkmale und deren Klassenzuordnung im Vorhinein bekannt sind. (Daten sind als gelabelt)
Die Aufgabe beim maschinellen Lernen besteht nun darin, aus den gesammelten klassifizierten Daten eine Funktion zu gene- rieren, die für neue Äpfel aus den beiden features Größe und Farbe den Wert der Klasse (A oder B) berechnet.
Nenne zwei Klassifikationsalgorithmen:
Nearest Neighbor Algorithmus: Ein Datenpunkt wird basierend auf dem Mehrheitsentscheid benachbarter Datenpunkte einer bestimmten Klasse zugeordnet.
Entscheidungsbäumen:
Instanzen werden Anhand anhand ihres Pfades, ausgehend der Wurzelknoten und den einzelnen inneren Knoten, durch Entscheidungsregeln einer Klasse zugeteilt.
Erweiterung dieses Verfahrens:Random Forest Algorithmus.. Klassenzuordnung durch den Mehrheitsbeschluss von unabhängigen Entscheidungsbäumen vor-
Wie kann man Aliasing vermeiden?
Entweder verbessert man die Ausgabegeräte durch höhere Auflösung, mehr Farbwerte, oder schnellere Bildfolge.
Oder man verbessert die Bilder = antialiasing (Software)
Entweder durch ein postprocessing oder durch prefiltering
Was ist die Ursache für Aliasing?
ungenügend feine Abtastung des wahren
Bildes. Die theoretische Grundlage dazu bildet das Nyquist-Shannon-
Abtasttheorem. Demnach kann eine Information nur dann korrekt re-
konstruiert werden, wenn eine Abtastfrequenz (sampling rate) ver-
wendet wird, die mindestens doppelt so hoch ist wie die höchste zu
übertragende Informationsfrequenz. Diese Grenze heißt Nyquist-Limit.
Wie können falsche Rekonstruktionen vermieden werden?
Entweder durch Vorfilterung oder Nachbearbeitungen. Vorfilterung ist aber viel besser und die zentrale Strategie dabei ist das Supersampling (oder auch Oversampling)
Was ist Stereo Vision:
Stereo Vision, auch Stereoskopisches Sehen genannt, ist wie menschliches Sehen:
Zwei Augen, ein 3D-Bild!
Mit zwei leicht versetzten Kameras erfasst Stereo Vision eine Szene und berechnet die Entfernung zu Objekten, indem es die winzigen Unterschiede in den Bildern vergleicht.
So entsteht ein detailliertes 3D-Modell der Umgebung, ideal für Roboter, autonome Fahrzeuge, Augmented Reality und vieles mehr!
Was ist Disparität?
In der Stereovision, auch als Stereoskopisches Sehen bezeichnet, beschreibt die Disparität den horizontalen Versatz eines Objektpunktes in zwei Bildern einer Szene, die von leicht versetzten Kameras aufgenommen wurden. Je näher ein Objekt an den Kameras liegt, desto größer ist die Disparität. Die Disparität wird in Pixeln gemessen und kann verwendet werden, um die Tiefe des Objekts zu berechnen. Disparität ein wichtiges Maß in der Stereovision ist, das es ermöglicht, Tiefeninformationen aus zwei Bildern zu extrahieren.
Was ist der Normalfall?
Der Normalfall in der Stereovision beschreibt die ideale Anordnung der Kameras, um präzise Tiefeninformationen zu erhalten. In diesem Fall sind die Kameras parallel zueinander ausgerichtet und ihre optischen Achsen sind horizontal ausgerichtet. Dabei sind die Bildzeilen der Bilder durch die gleiche horizontale aurichtung identisch! Die parallele Anordnung und horizontale Ausrichtung der Kameras führen zu einfachen Berechnungen und dichten Tiefenkarten. Der Normalfall hat jedoch auch Einschränkungen und ist nicht für alle Szenen geeignet.
Beschreibe die Epipolargeometrie?
Im gegensatz zum Normalfall sind die beiden Kameraus jetzt auch zueinenader ein bisschen gedreht. Aufgrund der drehung schneiden sich diese Gerade in den Bildebenen, die schnittpunkte nennt man epipole und die lage in den bildebebenen ist nur durch die anordnung der beiden Kameras bestimmt.
Zuletzt geändertvor 6 Monaten