Wie liegt ein Bild in der digitalen Bildverarbeitung vor?
Ein Bild liegt in Form einer Bildmatrix vor, bei der jeder Eintrag (Pixel) einen bestimmten Wert hat.
Wie ist ein typisches Machine Vision System aufgebaut?
Kamera
Prüfobjekte
Bildverarbeitungssoftware
letzte Entscheidung bei Person
Sichtprüfung evt. bei Mensch
Schnittstelle
Beleuchtung
Was sind typische Prüfziele eines Machine Vision Systems?
Objektabmessung, Farben, Oberflächenbeschaffenheit
Was ist ein RGB-Bild?
Größe: 24Bit
Rot Grün Blauwerte
Welche Werte können in der Bildmatrix angenommen werden bei einem Binärbild / bei einem 8-bit-Graustufenbild?
Binär: 0, 1
Graustufenbild: 0(schwarz) – 255(weiß)
Was ist das Histogramm eines Bilds?
Gibt einen Überblick über die Verteilung der Helligkeitswerte im Bild. Es ist eine Verteilungsfunktion, bei der die absolute Häufigkeit der Grauwerte eines Bildes in einem Diagramm dargestellt wird.
Vorgehensmodell: Welche Arbeitsschritte unterscheidet man bei einer typischen Bildverarbeitungsaufgabe?
Bildaufnahme, Bildvorverarbeitung, Festlegen Arbeitsbereich, Erzeugung von Objekten, Berechnung von Objekteigenschaften, Entscheidung über die Korrektheit der untersuchten Eigenschaften
Was ist der Bildkontrast?
Was ist Helligkeit?
Der Bildkontrast gibt an, wie unterschiedlich die Helligkeitswerte im Bild sind. Ein hohes Kontrastniveau bedeutet, dass es starke Unterschiede zwischen den Helligkeitswerten im Bild gibt, während ein niedriges Kontrastniveau bedeutet, dass die Helligkeitswerte im Bild ähnlich sind.
C = ( I_max - I_min ) / 255
Helligkeit wird als Durchschnittswert aus allen Bildwerten berechnet.
Was ist Kontrastanpassung? Nennen Sie eine Methode.
Lineare Kontrastanpassung ist eine Methode zur Verbesserung des Kontrasts in einem Bild durch Anpassung der Verteilung der Grauwerte. Dabei wird die ursprüngliche Grauwertspreizung des Bildes durch eine neue, linear angepasste Spreizung ersetzt. Die lineare Kontrastanpassung erhöht den Kontrast des Bildes, indem sie die Differenz zwischen den hellsten und dunkelsten Grauwerten vergrößert und gleichzeitig die relative Verteilung der Grauwerte beibehält.
Was versteht man unter einem Punktoperator? Beispiel?
Grauwertinvertierung: Der neue Pixelwert J an der Stelle (m, n) errechnet sich aus dem Originalwert I(m, n) über
J(m, n)=255-I(m, n)
Binarisierung mit einem Schwellwert: Diesen Vorgang nennt man auch Schwellwert-Segmentierung. Jedem Pixel wird der Wert 1 oder 0 zugeordnet, abhängig davon, ob der Wert des Pixels jenseits oder diesseits eines Schwellwerts x_s liegt.
Beispiele: Invertieren, Kontrastanpassung
Was versteht man unter einem lineares Filter? Beispiel?
Lineares Filter werden häufig verwendet, um Bildrauschen zu reduzieren, Kanten zu verstärken oder bestimmte Muster hervorzuheben. Die grundlegende Idee besteht darin, das aktuelle Pixel und seine Nachbarn linear zu kombinieren, um einen neuen Pixelwert zu erzeugen.
Die Gewichtungen, die für diese Kombination verwendet werden, werden durch einen sogenannten Filterkern oder Faltungskern definiert. Dieser Kern ist eine kleine Matrix mit Zahlen, die die Gewichtungen für jeden Pixel in der Nachbarschaft des aktuellen Pixels angibt. Um das Ergebnisbild zu erzeugen, wird der Filterkern auf jeden Pixel im Bild angewendet, wandert also über das Bild.
Beispiele: Glättungsfilter, Durchschnittsfilter
Was versteht man unter einem Rangoperator? Beispiel?
Rangoperationen sind Algorithmen, die die Grauwerte in der Nachbarschaft eines Pixels nach Rang ordnen. Hierbei wird für jeden Bildpunkt im Eingangsbild eine Nachbarschaft definiert und die Pixelwerte nach Größe sortiert. Als neuer Pixelwert wird dann der Eintrag der sortierten Werte an eine bestimmte Stelle ausgewählt.
Die Maske wird danach verschoben und der Prozess für alle Pixel des Ausgangsbilds wiederholt. Die Maske besteht komplett aus 1en.
Beispiele: Medianfilter, Minimumfilter, Maximumfilter
Wie muss bei einer linearen Kombination die Multiplikator Matrix aussehen, um einen gleitenden Durchschnitt zu bekommen um bestimmte Sachen auszubleichen?
Bei einer 3x3 Matrix überall 1/9
Was ist ein lineares Filter?
Was ist eine Filtermaske?
Wie hängen in den hier besprochenen Kontext lineare Filterung und Faltung zusammen?
Die Faltung ist ein lineares Filter mit gespiegeltem Faltungskern.
Wann sind Filtermaske und Faltungskern identisch?
Wenn es gespiegelt das gleiche ergibt (Palindrom), wie zum Beispiel 12321->12321
Was versteht man hier unter einer Kreuzkorrelation?
Die Kreuzkorrelation errechnet ein Maß der Übereinstimmung zwischen der Filtermaske und dem durch die Maske überlagerten Bildabschnitt.
Was ist eine Anwendung der Kreuzkorrelation?
Objekterkennung
Die Maske liegt genau über dem Objekt und erzeugt den höchsten insgesamten Wert.
Welcher Filter erhält den Rand und nimmt Rauschen raus?
Der Medianfilter
Was ist ein Sobel-Filter?
Es ist ein Kantenfilter.
Liefert bei nicht zu starkem Bildrauschen brauchbare Schätzwerte für die Kantenpunkte. Ziel ist es, im Bild die Kanten deutlicher hervortreten zu lassen. Man spricht vom Kantenschärfen.
Abschnitt 8.1.3 Erosion
Beschreiben Sie den Vorgang anschaulich.
Erosion lässt ein Objekt schrumpfen und es können damit z.B. Linien herausgefilter werden. Erosion entfernt nur Randelemente von Objekten und dient zur Vorbereitung der Kantendetektion.
Strukturelement: Wenn Kreuz(Strukturelement) komplett auf Objekt liegt, wird mittlerer Punkt gesetzt
Abschnitt 8.1.4 Dilatation
Dilation lässt ein Objekt wachsen und es können damit z.B. Linien verbunden werden.
Strukturelement: Wenn ein Kästchen des Kreuzes (Strukturelementes) über dem Objekt liegt, wird das mittlerer Punkt gesetzt
Sind Erosion und Dilatation zueinander inverse Operationen?
Schrumpfen und Wachsen sind gegensätzlich zueinander, allerdings ist dies mathematisch nicht auf Erosion und Dilation übertragbar. Sie sind nicht invers zueinander, da sie sich mathematisch nicht gegenseitig aufheben.
Abschnitt 8.2.1 Öffnen und Schließen
Was versteht man unter morphologischem Öffnen?
Was versteht man unter morphologischem Schließen?
Öffnen: Die Öffnung ist eine Erosion, gefolgt von einer Dilatation, und wird verwendet, um kleine Objekte und Rauschen zu entfernen.
Schließen: Die Schließung ist eine Dilatation, gefolgt von einer Erosion, und wird verwendet, um Lücken in Objekten zu schließen.
Abschnitt 8.2.2 Zylinderhut-Transformation
Wie funktioniert eine Zylinderhut-Transformation?
Beschreiben Sie zwei Beispiele zu ihrem Einsatz.
Öffnen -> Geöffnetes Bild(Erosion und Dilation) - Original abziehen = TopHat
Beispiele: Eierbild
Welche Typen von Halbleitersensoren in der industriellen BV unterscheidet man?
Geometrische Anordnung der einzelnen lichtempfindlichen Elemente in Zeilen- oder Matrixsensoren
Zeilen:
nehmen jede Zeile nacheinander auf
Zeilen werden zu einem rechteckigen Bild zusammengesetzt
Matrix:
Bild wird aus mehreren Zeilen und Spalten während einer einzigen Belichtungszeit aufgenommen
wird am häufigsten eingesetzt
Charge Couple Device (CCD)
ältere Technologie
bietet höhere Empfindlichkeit und bessere Qualität als CMOS-Sensoren
Complementary Metal Oxide Semiconductor (CMOS)
neuere Technologie
kostengünstiger, schnellere Auslesegeschwindigkeiten
Was ist grob das Funktionsprinzip der Halbleitersenoren?
Allgemein:
Halbleitersensoren funktionieren, indem sie Licht in elektrische Signale umwandeln. Wenn Licht auf einen Halbleitersensor trifft, erzeugt es eine elektrische Ladung in den Pixeln des Sensors. Die erzeugte Ladungsmenge ist proportional zur Intensität des Lichts. Anschließend werden die Pixel des Sensors ausgelesen und in digitale Werte umgewandelt, die dann im Speicher des Sensors abgelegt werden.
CCD:
sehen Pixel als Ladungen
Eimerkettenprinzip: Ladungen werden nach und nach im vertikalen Transportregister weiter verschoben
Hat einen Ladungsverstärker für den gesamten Sensor
Ausgangsverstärker wandelt Ladungspakete in eine Spannung um, die dann digitalisiert wird
Schwarzwert und Weißwert werden nacheinander abgetastet, Subtraktion der Werte erzielt einen Wert, der zur Helligkeit proportional ist
Unterdrückt niederfrequente Störungen (hat weniger Rauschen)
Overlapped-Modus: Während die Ladung eines Bildes ausgelesen wird, kann zeitgleich das nächste Bild belichtet werden
CMOS:
Pixel werden als Spannungen wahrgenommen
Jedes Pixel hat seinen eigenen Ladungsverstärker, dadurch werden die Ladungen in Spannungen umgewandelt und dann als Helligkeitsinformationen wahrgenommen
Die Spannungen der Pixel werden nacheinander von den Column Lines abgelesen
haben Fixed Pattern Noise (ortsfestes Rauschen), durch beheben entsteht eine geringe Empfindlichkeit des Sensors
Was versteht man unter Rolling Shutter und Global Shutter?
Rolling Shutter:
Pixel werden zeilenweise von oben nach unten ausgelesen
Obere Teil wird zuerst ausgelesen und unterer Teil zuletzt, bei Betrachtung von bewegten Objekten entsteht dadurch trapezförmige Verzerrungen
wird für Multimedia-Anwendungen verwendet
Global Shutter:
Pixel werden gleichzeitig ausgelesen, dafür sind allerdings bis zu acht zusätzliche Transistoren pro Pixel nötig
kleinere Lichtempfindliche Fläche -> geringere Empfindlichkeit
geringere Stückzahlen und dadurch deutlich teurer als Rolling Shutter
Wie sind Farbsensoren aufgebaut?
Drei-Chip-Farbkameras:
Strahlteiler zwischen Objektiv und Kamerasensor (teilt Strahl in rote, grüne und blaue Komponente)
Jede Komponente fällt auf unterschiedliche Sensor-Chips
So stehen für jedes Pixel alle drei Farbwerte
Nachteil: groß, schwer, teuer, nur für kleine Chips mit kleiner Auflösung
Ein-Chip-Farbkameras:
Farbfiltermaske auf Sensor
Pixel empfängt nur die Helligkeit eines Farbkanals
Nebenstehende erfassen andere Farbkanäle, wodurch die vollständige Farbinformation interpoliert werden kann
Häufigste Maske: Bayer-Pattern
Nachteil: geringe Ortsauflösung, reduzierte Empfindlichkeit
Dreilagenfarbsensor:
Drei Pixel übereinander angeordnet, jede Lage absorbiert und wandelt eine ander Wellenlänge in Ladung um
Welche wichtigen Eigenschaften von Sensoren müssen bei der Systemauslegung beachtet werden?
Pixelgröße
Auflösung
Optisches Format
Quanteneffizienz
Füllfaktor
Mikrolinsen
Spektrale Empfindlichkeit
Linearität
Rauschen
Bildaufnahmeeffekte
Was sagt das Shannon-Nyquist-Theorem aus?
Das Shannon-Nyquist-Theorem besagt, dass die Abtastfrequenz eines Signals mindestens doppelt so hoch sein muss wie die höchste Frequenzkomponente des Signals, um Aliasing zu vermeiden. Im Kontext der digitalen Bildverarbeitung bedeutet dies, dass die Verschlusszeit der Kamera mindestens doppelt so hoch sein muss wie die höchste Frequenzkomponente des Bildes, um Aliasing zu vermeiden.
Wie kann man in der Praxis überprüfen, welche räumliche Auflösung eine Kamera erreicht?
Es gibt einige Möglichkeiten, in der Praxis zu überprüfen, welche räumliche Auflösung eine Kamera erreicht. Eine Möglichkeit besteht darin, ein Testdiagramm zu verwenden. Ein Testdiagramm ist ein Stück Papier oder Film mit einer Reihe gleichmäßig verteilter Linien. Wenn Sie das Testchart fotografieren, können Sie anschließend den Abstand zwischen den Linien messen, um die räumliche Auflösung der Kamera zu bestimmen.
In welchem Bereich ist Licht sichtbar?
400-750nm
400 Blau
600 Rot
500 Grün
Was ist eine beugungsbegrenzte Abbildung?
Abbildungsfehler im Objektiv
Man kann einen Punkt nicht auf einem Punkt abbilden, es wird als Scheibchen dargestellt
numerische Apertur = Größe des Scheibchens
je kürzer die Wellenlänge, desto …
Was ist Aliasing?
Bildstrukturen verschwinden bzw. werden falsch dargestellt, durch zu niedriges Abtasten
Was macht ein Gaußscher Filter?
Ein Gaußfilter ist ein linearer Tiefpass- bzw. Glättungsfilter, welcher zur Rauschunterdrückung eingesetzt wird. Das mittlere Element der Filtermaske erhält den größten Wert und die anderen Koeffizienten nehmen mit zunehmender Entfernung vom Mittelpunkt entlang der Gausschen Glockenkurve ab. Bei einem zweidimensionalen Gauß-Filter handelt es sich um eine Hintereinanderausführung von zwei eindimensionalen Gauß-Filtern.
Code:
I = imread(‘rice.png’)
h = fspecial(‘gaussian’,hsize,sigma)
B = imfilter(I,h,options)
Options:
symmetric,replicate,circular,same,full,corr,conv
Was ist der Abbildungsmaßstab einer optischen Abbildung? Wie lautet die Linsengleichung?
Abbildungsmaßstab:
Ist das Verhältnis von Bildhöhe B zu Gegenstandshöhe G bzw. von Bildweite b zu Gegenstandsweite g. B/G, b/g
Linsengleichung:
1/f = 1/b + 1/g
Brennweite f
Bildhöhe B / Bildpunkt
Bildweite b
Gegenstandshöhe G / Gegenstands-/ Objektpunkt
Gegendstandsweite g
Brennpunkt F
Welchen Einfluss hat die numerische Apertur des Objektivs auf die Schärfentiefe?
Je größer die numerische Apertur, desto größer ist die Objektivöffnung. Je größer die Objekivtöffnung, desto kleiner ist die Schärfentiefe. Dies liegt daran, dass die Schärfentiefe mit der Blendenzahl steigt. Eine hohe Blendenzahl steht für eine kleine Blendenöffnung.
Was versteht man unter der SHT, was unter der CHT?
Standard-Hough-Transformation:
Wird zur Detektion von Linien eingesetzt, nachdem eine Kantendetektion durchgeführt wurde.
Circle-Hough-Transformation:
Wird zur Detektion von Kreisen eingesetzt, nachdem eine Kantendetektion durchgeführt wurde.
Was versteht man unter Gammakorrektur?
Sie erweitert die Grauwertspreizung durch Einführung des Gammawerts als Exponenten. Hierbei entsteht eine nichtlineare Abbildung. Je nach Gammawert erfasst die Spreizung mehr die dunklen bzw. hellen Bildbereiche und es wird die Helligkeit der Bilder insgesamt vergrößert oder verkleinert.
high_low = stretchlim(I)
G = 3 %gammawert
B = imadjust(high_low,[],G)
Was versteht man unter dem Polarisierten Licht? (+ Anwendungsbeispiele)
Polarisiertes Licht schwingt nur in einer Richtung quer zur Ausbreitungsrichtung. Reflektiert eine spiegelnde Oberfläche nun dieses Licht, dann ist dieses ebenso polarisiert. Nun kann ein um 90° gedrehter Polarisationsfilter verwendet werden, welcher das reflektierte Licht nicht durchlässt. Somit werden ungewollte Reflexionen vermieden.
Anwendung:
Was ist polarisiertes Licht?
Wie funktioniert ein Polarisationsfilter?
Wie funktioniert eine Kantendetektion?
Über Ableitungen:
z.B Steigungsdreieck : Delta y / Delta x
Delta y = Helligkeitsdifferenz
Delta y = Pixelabstand
Oder:
Kann vor allem mit der Canny-Methode erzielt werden:
Funktionsweise:
1. Gradienten bestimmen (Ableitung eines Gauß-Filters)
2. Kantenausdünnung (es werden die lokalen Maxima der Beträge des Gradienten gesucht, der Rest wird null (kein Kantenpunkt))
3. Schwellwertoperation mit Hysterese (die gefunden Maxima aus 2 werden zusätzlich noch gefiltert mit einem Schwellenwert, um mit höherer Sicherheit eine Kante zu erkennen)
4. Klassifizierung der unsicheren und ausgeschlossenen Kantenpunkte mittels Verbindungsanalyse auf Basis der Hypothese von zusammenhängenden Kantenpunkten
Das Rauschen des Bildes wird mit einem Tiefpass- bzw. Gaußfilter minimiert.
Mithilfe des Sobelfilters werden die partiellen Ableitungen bestimmt.
Mithilfe der partiellen Ableitung kann die Richtung des Gradienten einer Kante durch einen Pixel bestimmt werden.
Der Wert dieses Pixels wird durch den euklidischen Betrag der partiellen Ableitungen gebildet (absolute Kantenstärke) und in ein neues Bild übertragen.
Die Kanten werden nun abgelaufen und nur die Werte übernommen, die Maximal sind (Links-Rechts-Vergleich der Pixel). Die kleineren Werte werden auf 0 gesetzt. Somit werden die Kanten nur einen Pixel breit.
Durch eine Hysterese mit zwei Schwellwerten wird zuletzt entschieden, welche Pixel zu einer Kante gezählt werden sollen.
Skizzieren Sie die Abbildung eines Gegenstandes durch eine dünne Linse mithilfe des Parallelstrahls und des Brennpunktstrahls.
Was ist die Canny-Methode?
Eine Hintereinanderausführung von unterschiedlichen Filtern, um eine Kantendetektion zu erzielen.
BW = edge(I,’canny’)
Alternativ - Die Canny-Methode in vier Schritten:
Rauschunterdrückung durch ein Glättungsfilter und Schätzung des Gradienten für jedes Bildelement nach Betrag und Winkel
Kantenausdünnung durch Unterdrückung von „falschen“ lokalen Maxima
Klassifizierung der Bildelemente unter Anwendung von zwei Hysterese-Schwellenwerten in „sichere“, „unsichere“ und „ausgeschlossene“ Kantenpunkte und
abschließende Klassifizierung der „unsicheren“ Kantenpunkte mittels Verbindungsanalyse auf der Basis der Hypothese von zusammenhängenden Kantenpunkten
Was ist ein Hotspot?
Als Hotspot wird der Mittelpunkt einer Filtermaske bezeichnet.
Was ist ein Differenz-Filter?
Das Differenz-Filter ist ein Filter, welches negative Koeffizienten in der Filtermaske enthält. Bei der Berechnung dieses linearen Filters handelt es sich letztendlich um eine Differenz der einzelnen Produkte, wenn auch positive Koeffizienten
Was muss man beachten, wenn eine sehr hohe Messgenauigkeit gefordert ist?
Beleuchtung:
Es wird eine enorm stabile (durch Stromstabilisierung) und telezentrische (durch exakt parallelen Strahlengang) Hintergrundbeleuchtung benötigt.
Objektiv:
Es wird ein telezentrisches Objektiv benötigt, welches exakt auf die Messebene fokussiert ist.
Kamera:
Die benötigte Kamera muss hochauflösend sein. Die Messung ist durch genauere Werte somit stabiler.
Herausfiltern von Verzerrungen
Welche Methoden zur Binarisierung eines Bildes kennen Sie?
Schwellenwertsegmentierung nach Otsu
Manuell: Man wählt den Wert zwischen den Extrema des Histogramms
Nennen Sie eine konkrete Anwendung der CHT.
Wird beispielsweise benutzt um die Iris von Menschen zu unterscheiden (recognition systems)
Erkennung von Münzen oder runden Objekten im allgemeinen
Was ist ein Grauwertbild?
Jedem Pixel eines Bildes wird ein Grauwert zugeordnet. Dieser kann bei 8bit Wertigkeiten zwischen 0 und 255 annehmen. Durch die Grauwerte können Rückschlüsse auf die Helligkeit und den Kontrast des Bildes getroffen werden.
G = rgb2gray(I)
Was macht ein Laplace-Filter?
Ein Laplace-Filter wird für die Kantenschärfung verwendet. Es wird eine Filtermaske verwendet, welche die zweite Ableitung des Eingangsbildes bildet. Anschließend wird das daraus resultierende Bild mit einem Faktor w (omega) multipliziert und das Produkt vom Originalbild abgezogen.
h = fspecial(‘laplacian’,alpha)
B = imfilter(I,h,padding,options)
F = I - w*B
Was für Filteroptionen gibt es bei dem Matlab-Befehl “imfilter”?
‘symmetric’ :
Die Werte am Bildrand werden gespiegelt und in die Bildpixel unter der Filtermaske außerhalb des Bildes eingefügt. Die Bildkante dient als Spiegelachse.
‘replicate’ :
Die Werte am Bildrand werden in die naheliegensten Bildpixel unter der Filtermaske außerhalb des Bildes eingefügt.
‘circular’ :
Es wird eine kreisförmige Filtermaske verwendet.
‘same’ (mittelgroßes Ausgangsbild)
Die Filtermaske liegt für jede Operation mindestens mit ihrem Hotspot über dem zu filternden Bild.
‘full’ (großes Ausgangsbild):
Das Zentrum der Filtermaske liegt für jede Operation mit mindestens einem Element über dem zu filternden Bild.
‘valid’ (kleines Ausgangsbild)
Die Filtermaske liegt für jede Operation vollflächig über dem zu filternden Bild.
‘corr’:
Es wird eine Kreuzkorrelation des Bildes mit der Filtermaske durchgeführt (lineare Filterung mit nicht gespiegeltem Faltungskern).
‘conv’:
Es wird eine Konvolution des Bildes mit der Filtermaske durchgeführt (lineare Faltung mit 180° gedrehtem Faltungskern).
Was ist eine Konvolution?
Konvolution ist ein anderer Begriff für die lineare Faltung. Letztendlich ist diese ein lineares Filter mit einer um 180° gedrehten Filtermaske.
Was ist der Brennpunkt einer Linse?
Fällt Licht genau senkrecht auf die Linse (Parallelstrahl), dann wird es so gebrochen, dass es durch den Brennpunkt läuft. Dies ist der Fall, wenn das reflektierende Objekt oder die Lichtquelle extrem weit von der Linse entfernt ist.
Wenn das Licht zu nah an der Linse ist, wandert der Bildpunkt weiter nach hinten
Welche Methoden zur Kontrastanpassung kennen Sie?
Lineare Grauwertspreizung
Gammakorrektur
Histogrammebnen
Welchen Einfluss haben die Wellenlängen des einfallenden Lichts und numerische Apertur eines Objektivs auf das laterale Auflösungsvermögen des Ojektivs?
Je höher die numerische Apertur und somit der Öffnungswinkel des Objektivs, desto mehr Licht kann eintreten. Desto mehr Licht, desto besser die Auflösung.
Ebenso nimmt die Auflösung mit verkleinerter Wellenlänge zu.
Was macht ein Sobel-Filter?
Ein Sobel-Filter ist ein glättendes Kantenfilter, welcher die partiellen Ableitungen entlang der horizontalen und vertikalen Bildrichtung berechnet. Es wird ein Gradientenbild erzeugt. Mit diesem werden hohe Frequenzen im Bild mit Grauwerten dargestellt. Die Bereiche mit der größten Intensität sind dort, wo sich die Helligkeit des Originalbildes am stärksten ändert und somit die größten Kanten darstellt. Orthogonal zu den Ableitungsrichtungen findet eine Glättung statt.
Code 1:
h = fspecial(‘sobel’)
sobh = imfilter(double(A),h,options)
sobv = imfilter(double(A),h’,options)
sobc = abs(sobv)+abs(sobh);
sobc = imbinarize(sobc/max(max(sobc)));
sobc = imcomplement(sobc);
Code 2:
BW1 = edge(I,’sobel’)
Wie erreicht man Subpixelgenauigkeit bei der Abstandmessung?
Durch die Mittelung aller Bildpunkte berechnet man einen Wert für den Flächenschwerpunkt, welcher Nachkommastellen besitzt. Dieser besitzt eine höhere Genauigkeit als die Pixelkoordinaten. Der berechnete Abstand kann somit rational angegeben werden. Die Schwerpunktsberechnung ist unempfindlich gegenüber verschiedenen Beleuchtungsstärken.
Was ist die Schwellwertsegmentierung nach Otsu?
Durch ein stochastisches Verfahren wird ein Schwell- bzw. Grauwert berechnet, der das zugehörige Histogramm in zwei Segmente aufteilt. Alle Grauwerte unterhalb des Schwellwertes werden schwarz, die darüber weiß. Diese Methode wird benutzt, um Objekte im Bild zu identifizieren.
BW = imbinarize(I,graythresh(I))
Erläutern Sie die Hough-Transformation zur Geradendetektion.
Im Bild im Ortsraum gibt es einzelne Punkte, wobei nicht sicher ist welche Punkte zu einer Linie gehören. Deswegen nimmt man erstmal alle Geraden die durch jeden Punkt verlaufen (Geradenchar). Diese werden mithilfe des Abstandes ρ und des Winkels zwischen dem Abstand ρ und der x-Achse (vertikal) dargestellt. Im Hough-Raum sieht man dann die Geradencharen jedes Pixels. Wo sie sich überschneiden ist mit großer Wahrscheinlichkeit eine Gerade.
Es wird ein Koordinatensystem über das zu untersuchende Bild gelegt, dessen Ursprung sich in der linken oberen Ecke befindet. Von diesem Ursprung aus können jegliche Geraden in der Hesseschen Normalform bestimmt werden und zwar mithilfe des Abstandes ρ und des Winkels zwischen dem Abstand ρ und der x-Achse (vertikal).
Nun kann ein Punkt im Bild gewählt werden und im Hough-Raum wird jede Gerade dargestellt, welche durch diesen Punkt läuft. Man kann auch mehrere Punkte auswählen und beobachten, welche Gerade all diese Punkte beinhaltet. Diese Gerade ist da im Raum, wo alle Graphen sich kreuzen.
Was ist ein Average-Filter?
Ein Average-Filter ist ein lineares Filter, der den Mittelwert aus der Nachbarschaft berechnet und in den Hotspot der Filtermaske einträgt.
h = fspecial(‘average’,hsize)
h = ones(N)./N.^2
Was sagt das Nyquist-Shannon-Abtasttheorem aus?
Um analoge Werte in digitale Werte umzuwandeln, müssen diese abgetastet werden. Die Abtastrate muss doppelt so hoch wie die Eigenfrequenz des analogen Signals sein.
Wie kann man Abstände zwischen Objekten messen?
Durch Mittelung aller Bildpunkte eines Objektes lässt sich dessen Flächenschwerpunkt bestimmen. Über den Satz des Pythagoras lässt sich nun der Abstand von zwei Schwerpunkten in Pixel bestimmen. Ebenso kann mit einem Kalibrierungskoeffizienten multipliziert werden, welcher die Pixel in eine richtige Maßeinheit umwandelt.
Man nimmt ein “Prüfobjekt” wie das Gitterbrett im Praktikum, Beispiel 10cm, und schaut wie viele Pixel da drin liegen
Was versteht man unter der strukturierten Beleuchtung? (+Anwendungsbeispiele)
Durch strukturierte Lichtquellen lassen sich bestimmte geometrische Formen auf das Objekt projizieren. Somit können Vermessungen und Anwesenheitskontrollen ohne einen Helligkeitskontrast realisieren.
Linie wird auf Objekt projiziert, um Höhe zu messen:
Was versteht man unter Gerichtetem Auflicht? (+Anwendungsbeispiele)
Wie kann man hierbei die Kamera platzieren?
Es handelt sich um Auflicht, welches nur mit einem definierten Winkel auf die Objektoberfläche trifft und diese nicht vollständig beleuchtet. Man unterscheidet zwischen zwei Anordnungen, die Kamera zu positionieren.
Hellfeldbeleuchtung:
Die Kamera befindet sich im theoretischen Ausfallswinkel des einfallenden Lichts. Objekte mit glatter oder spiegelnder Oberfläche erscheinen somit sehr hell.
Dunkelfeldbeleuchtung:
Die Kamera befindet sich außerhalb des theoretischen Ausfallswinkels des einfallenden Lichts. Glatte bzw. spiegelnde Oberflächen erscheinen als dunkel, Anomalien in der Oberfläche jedoch als hell, da sie den Reflexionswinkel ändern.
Welche typischen Anwendungen von Vermessungsaufgaben gibt es?
Montagekontrolle:
Vermessung, um Anwesenheit von Gegenständen oder sonstigen Konstruktionen zu überprüfen (Anwesenheitskontrolle)
Formkontrolle:
Vermessung, um Abweichungen von Konstruktionen bezogen auf ihre Idealform zu erfassen. Eine hohe relative ist oft wichtiger als die absolute Genauigkeit.
Maßprüfung:
Das absolute Maß einer Konstruktion muss mit hoher Genauigkeit erfasst werden.
Was versteht man unter diffusem Auflicht? (+Anwendungsbeispiele)
Die Lichtquelle befindet sich auf der selben Seite wie die Kamera (Auflicht) und die Beleuchtung hat keine eindeutig festgelegte (diffuse) Richtung. Diesen Effekt erzielt man, wenn das Licht von einer großen Fläche abgestrahlt wird. Starke Reflexionen und Verschattung wird somit vermieden.
Welche Beleuchtungen haben wir im Praktikum gehabt?
(Kreuz-)polarisation
Koaxiales Licht
Dombeleuchtung
Laser
Dunkelfeldbeleuchtung (Ringlicht)
Flächenbeleuchtung
Was ist (Kreuz-)polarisation?
Polarisationsfilter können zur Vermeidung von Reflexionen eingesetzt werden. Polarisiertes Licht schwingt nur in einer einzigen Richtung quer zu seiner Ausbreitungsrichtung. Wenn eine Oberfläche mit polarisiertem Licht beleuchtet wird, sind alle durch spiegelnde Reflexion zurückgeworfenen Strahlen vollständig polarisiert. Durch einen im rechten Winkel zu dieser Polarisationsrichtung angeordneten Polarisationsfilter vor der Kamera lassen sich diese Lichtstrahlen zurückhalten. Die Reflexionen sind dann im Kamerabild nicht sichtbar.
Was ist Koaxiaes Licht?
Koaxiale Beleuchtung strahlt seitlich auf Halbspiegel. Das Licht wird auf das Prüfobjekt gespiegelt. Das vom Prüfobjekt gespiegelte Licht wird nach oben zur Kamera durchgelassen. Kantenpunkte erhalten zusätzlichen Kontrast, durch das Abblocken des diffusen Lichtes.
Homogene und Schattenfreie Ausleuchtung (ohne Spiegelungen), Kanten und Schriften in bestimmten Tiefen werden sichtbar
Anwendungen: Oberflächenprüfung, Vollständigkeitskontrollen
Was bezweckt der Laser als Beleuchtung?
Anwendungen: Distanzmessung (Ermitteln von Höhen und Entfernungen), Prüfung von Gegenständen mit hoher Temperatur oder sonstiger Beschädigung
Was ist die Dunkelfeldbeleuchtung (Ringlicht)?
Erzeugen eine gleichmäßige Beleuchtung um das Objekt herum /
Schattenminimierung, Kanten erkennen
Anwendungen: Inspektion von Oberflächen, Qualitätskontrolle, Forensik, Minneralogie und Geologie, Biologie und Mikroskopie, Leckerkennung
Was ist die Dombeleuchtung?
Die Lumimax LED Dombeleuchtung erzeugt durch die domförmige Kuppel ein diffuses Licht, dass aus allen Richtungen auf das Prüfobjekt einfällt. Als diffuses Licht bezeichnet man in der Lichtführung ein „weiches“ Licht, das die Szene gleichmäßig und kontrast- bzw. schattenarm ausleuchtet. Diese domförmige Kuppel erzeugt eine vollkommen schattenfreie Ausleuchtung.
Bei der Dombeleuchtung wird das Licht von unten nach oben geleuchtet und an den Innenwänden der domförmigen Kuppel reflektiert und gestreut. Durch die runde und kegelförmige Bauart wird das Licht homogen auf das Objekt projiziert.
Anwendungen: Inspektionen von reflektierender, spiegelnder, komplexer oder gewölbter Materialen
Wozu braucht man eine Kalibrierung des Systems? Wie geht man vor, und was muss man beachten?
Die Bestimmung der Beziehung zwischen Maßen im Bild und in der realen Szene sollte unter denselben Bedingungen erfolgen, wie bei der endgültigen Anwendung, und möglichst direkt am Prüfteil, um dessen Einfluss auf die Bildeigenschaften zu erfassen. Wenn das nicht möglich ist, sind Referenzteile, die den Eigenschaften des Prüfteils nahe kommen, standardisierten Kalibriernormalen vorzuziehen.
Was macht ein Tiefpass-Filter?
Was macht ein Hochpass-Filter?
Was macht ein Bandpass-Filter?
Was macht ein Kerb-Filter?
Wo werden diese genutzt?
Tiefpass-Filter: Nimmt hohe Frequenzen raus
Hochpass-Filter: Nimmt niedrige Frequenzen raus
Bandpass-Filter: Lässt nur bestimmte Frequenzen in einem Frequenzband durch
Kerb-Filter: Nimmt einen kleinen Frequenzbereich raus, nimmt Störungen aus einem Bild
Fourier
Was sagt das Faltungstheorem?
Was sagt das Abtasttheorem (Nyquist)?
Faltungstheorem:
Faltet man zwei Signale im Zeitbereich, erhält man im Frequenzbereich das Produkt der Spektren.
(Im Ortsraum wird eine Faltung von Bild und Filter gemacht, im Frequenzraum eine Multiplikation von Bild und Filter -> Bild und filter werden Fouriertransformiert dann multipliziert im Frequenzraum und mit einer inversen Fouriertransformation wieder in den Ortsraum transformiert.)
Abtasttheorem:
Was ist Flächenbeleuchtung?
Mit Flächenbeleuchtung sind Details vom Objekt besser zu erkennen. Somit lässt sich das Objekt besser auf Fehler untersuchen.
Anwendung: Beleuchtung von Gebäuden oder Denkmälern
Was für Probleme gibt es bei Verwendung einer Linse?
Aberration (Abbildungsfehler)
Verzerrung
Zylinderische Fehler
Lösung: Objektive verwenden (benhaltet mehrere Linsen)
Was bestimmt die Größe des Airy Scheibchens?
numerische Aperatur
je kürzer die Wellenlänge desto kleiner das Airy Scheibchens
Wie bestimmt man die Größe des Airy-Scheibchens?
D_A = (2,44*Wellenlänge*Brennweite) / Durchmesser Objektiv
Schärfentiefe:
Wann wird ein Objekt scharf auf einem Bildsensor abgebildet?
Der Tiefenbereich, der auf dem Sensor scharf erscheint ist umso größer, je kleiner die Blende und je größer die Brennweite ist
Fourier-Transformation:
Was macht folgender Code?
fftshift
Fouriertransformation 2-dimensional: fft2
absoluter Wert : abs(F)
+1: damit wenn abs 0 ist keine Fehlermeldung kommt
Logarithmus zur besseren Darstellung: log
Normierung: J/ max(max(J))
Niedrige Freqeuenzen in Bildmitte: fftshift
Was macht folgendes:
Warum stört Rauschen?
Wie weit kann das Original wieder rekonstruiert werden?
Orginalbild wird mit Point Spread function gefaltet und Rauschen addiert. Wenn PSF bekannt, kann das Bild wieder mit einer Fouriertransformation entzerrt und rekonstruiert werden. (Original + PSF)
Rauschen wird hochverstärkt
Wiener Filter nimmt das Rauschen ein wenig raus
Soweit, wie der Entzerrer durch ein inverses Filter dargestellt werden kann
Welche Möglichkeiten gibt es eine Point Spread Function selbst zu konstruieren?
motion
gaussian
Wie geht man vor wenn die PSF nicht bekannt ist?
Blind deconvolution
Raten
Was für eine Transformationen macht:
Drehen
Spiegeln
Skalieren
Scherung
Lineare Transformation
Affine Transformation
parallele Geraden bleiben parallel
Drehmatrix, Skalierungsmatrix
Wie legt man 2 Bilder übereinander, wenn eins verzerrt/ gedreht ist?
Anwendungen
Projektive: 4 Punkte
Matrix kann berechnet werden wenn man 4 Punkte hat und die Transformation kennt
Bei affin 3 Punkte
Von Hand
Bildregistrierung:
Satelliten Bilder
Medizin (Multimodale Bildgebung, verschiedene Verfahren zu einem Bild kombinieren)
Was ist das Ziel der Bildrestauration?
Bei der Bildrestauration versucht man, die Qualtiät eines gestörten Bilds wiederherzustellen, wobei man Wissen über den Prozess der Bilddegradierung voraussetzt und verwendet.
Wie erzeugt man künstlich 'Blur' im Bild?
Falls Sensor und Objekt keine Relativbewegung aufweisen, kann einfach ein räumliches lineares Filter eingesetzt werden, oder ein Tiefpassfilter im Frequenzbereich
Beispiel:
fspecial('motion',7,60)
7 = the length of the motion
60 = theta specifies the angle of motion in degrees
theta
Wie kann man ein Bild Rekonstruieren wenn kein Rauschen vorhanden ist?
Das Prinzip der Entzerrung beruht auf der Filterung im Frequenzbereich. Es wird ein inverser Filter bzw. eine Entfaltung benutzt. Eine ideale Entzerrung ist nur möglich,wenn das verzerrende LSI-System (Point-Spread.Function) keine Nullstellen im Frequenzgang besitzt. Einmal eliminierte Frequenzkomponenten können durch lineare Filterung nicht wieder rekonstruiert werden. Das Original lässt sich nur insoweit restaurieren, als der Entzerrer durch ein inverses Filter dargestellt werden kann.
h = fspecial('motion',7,60)
x = checkerboard(8);
y = imfilter(x, h, 'conv', 'circular');
xrek = deconvwnr(y,h)
Wie kann man ein Bild Rekonstruieren wenn Rauschen vorhanden ist?
Es wird ein inverser Filter bzw. eine Entfaltung benutzt.
Da das Bildrauschen im Entzerrer verstärkt wird, baut man eine Schwellenoperation bei dem inversen Filter ein. Liegt der Frequenzgang unter einer gewissen Schwelle, wird für die entsprechende Frequenzkomponente Bildrauschen unterstellt und diese folglich unterdrückt.
Eine andere Möglichkeit ist, ein Tiefpassfilter zu nutzen, um Frequenzbänder zu unterdrücken, bei denen das Rauschen überwiegt.
noise_mean = 0;
noise_var = 0.0001;
yn = imnoise(y, 'gaussian', noise_mean, noise_var);
xrekn = deconvwnr(yn,h)
Wofür braucht man den Wiener-Filter?
Was macht der Wiener-Filter?
Wenn Störungen durch Bildrauschen einen sichtbaren Einfluss auf die Bildqualität nimmt, kann man den Wiener-Filter benutzen.
Das Wiener-Filter berücksichtigt die Störung durch Rauschen und liefert die bzgl. des minimalen mittleren quadratischen Fehlers optimale Schätzung. Es unterscheidet sich vom inversen Filter durch die spezifische Gewichtung des Frequenzgangs.
Es vermeidet übermäßiges Verstärken des Rauschens, wenn sowohl die Leistung der DFT-Koeffizienten des ungestörten Bildes als auch das Leistungsdichtespektrum der Störung bekannt sind.
xreknW = deconvwnr(yn,h,0.001)
Was sind affine Abbildungen?
Lineare Koordinatentransformation, die die elementaren Transformationen Translation, Rotation, Dilatation, Stauchung und Scherung umfasst. Sie bildet ein Dreieck auf ein Dreieck und ein Rechteck auf ein Parallelogramm ab. Sie wird daher auch als Dreipunkt-Abbildung bezeichnet.
Eine Abbildung eines Rechtecks auf ein beliebiges Viereck sind keine affinen Abbildungen.
Was sind projektive Abbildungen?
Werden auch perspektivische oder pseudoperspektivische Abbildung genannt.
Helfen Vierecke zu verformen, indem man vier beliebige Ausgangspunkte exakt auf ihre zugehörigen Zielpunkte transformiert. Geraden bleiben Geraden, diese müssen aber nicht parallel bleiben und nicht gleich lang bleiben wie bei den affinen Abbildungen.
Interpolation:
Wenn ein Bild in einem bestimmten Winkel gedreht/ transformiert wird und dann die inverse Transformation gemacht wird, erhält man dann das Originalbild?
Nein, da beim drehen manche Pixel nicht ganz auf ein Pixel treffen und dann eine Entscheidung getroffen werden muss welchen Wert das jeweilige Pixel dann annimmt. Das gleiche passiert bei der inversen Transformation. Es gehen Informationen verloren. Daraus folgt das Kanteninformationen verloren gehen/ verschwimmen.
sqsize = 60;
I = checkerboard(sqsize,4,4);
nrows = size(I,1);
ncols = size(I,2);
fill = 0.3;
% Try varying these 4 parameters.
scale = 1.2; % scale factor
angle = 40*pi/180; % rotation angle
tx = 0; % x translation
ty = 0; % y translation
sc = scale*cos(angle);
ss = scale*sin(angle);
T = [ sc -ss 0;
ss sc 0;
tx ty 1];
t_nonsim = affine2d(T);
I_nonreflective_similarity = imwarp(I,t_nonsim,'FillValues',fill);
t_nonsim_inv = t_nonsim.invert;
%outputView = imref2d(size(I));
I_nonreflective_similarity_inv = imwarp(I_nonreflective_similarity,t_nonsim_inv,'FillValues',fill);
Zuletzt geändertvor 5 Monaten