Was versteht man unter einer Punktoperation?
Die gegebene Abbildungsfunktion nimmt keinen Bezug auf den Kontext bzw. die Nachbarschaft des Bildelements. Der Punktoperator ist homogen, wenn er auf alle Bildelemente gleichermaßen angewandt wird.
Beispiel: Grauwertspreizung, Schwellenwertsegmentierung
Was macht ein Gauß-Filter?
Ein Gaußfilter ist ein linearer Tiefpass- bzw. Glättungsfilter, welcher zur Rauschunterdrückung eingesetzt wird. Das mittlere Element der Filtermaske erhält den größten Wert und die anderen Koeffizienten nehmen mit zunehmender Entfernung vom Mittelpunkt entlang der Gausschen Glockenkurve ab. Bei einem zweidimensionalen Gauß-Filter handelt es sich um eine Hintereinanderausführung von zwei eindimensionalen Gauß-Filtern.
Code:
I = imread(‘rice.png’)
h = fspecial(‘gaussian’,hsize,sigma)
B = imfilter(I,h,options)
Options:
symmetric,replicate,circular,same,full,corr,conv
Was ist der Abbildungsmaßstab einer optischen Abbildung? Wie lautet die Linsengleichung?
Abbildungsmaßstab:
Ist das Verhältnis von Bildhöhe B zu Gegenstandshöhe G bzw. von Bildweite b zu Gegenstandsweite g.
Linsengleichung:
1/f = 1/b + 1/g
Brennweite f
Bildhöhe B
Bildweite b
Gegenstandshöhe G
Gegendstandsweite g
Brennpunkt F
Was sind lineare Filter? Nennen Sie Beispiele.
Bei einem linearen Filter werden die Werte in der Filtermaske mit den jeweils darunter liegenden Bildwerten multipliziert und anschließend aufsummiert. Letztendlich handelt es sich hierbei um eine (Kreuz-)Korrelation.
Beispiele:
Average-Filter
Gauß-Filter
Welchen Einfluss hat die numerische Apertur des Objektivs auf die Schärfentiefe?
Je größer die numerische Apertur, desto größer ist die Objektivöffnung. Je größer die Objekivtöffnung, desto kleiner ist die Schärfentiefe. Dies liegt daran, dass die Schärfentiefe mit der Blendenzahl steigt. Eine hohe Blendenzahl steht für eine kleine Blendenöffnung.
Was versteht man unter der SHT, was unter der CHT?
Standard-Hough-Transformation:
Wird zur Detektion von Linien eingesetzt, nachdem eine Kantendetektion durchgeführt wurde.
Circle-Hough-Transformation:
Wird zur Detektion von Kreisen eingesetzt, nachdem eine Kantendetektion durchgeführt wurde.
Wie sind Farbsensoren aufgebaut?
Drei-Chip-Verfahren:
Das eintreffende Licht wird zwischen Objektiv und Sensor mithilfe eines Strahlteilers in seine drei Grundfarben aufgeteilt. Jede Grundfarbe wird von einem separaten Chip erfasst und es stehen für jeden Pixel drei Werte zur Verfügung, die zu einer Farbe kombiniert werden können.
Ein-Chip-Verfahren:
Auf dem Sensor befindet sich eine Farbfiltermaske und jeder Sensorpixel nimmt nur die Helligkeit eines Farbkanals wahr. Die resultierende Farbe lässt sich aus den benachbarten Pixeln mit jeweils unterschiedlichen Farbkanälen ermitteln (Bayer-Pattern am beliebtesten).
Was versteht man unter Gammakorrektur?
Sie erweitert die Grauwertspreizung durch Einführung des Gammawerts als Exponenten. Hierbei entsteht eine nichtlineare Abbildung. Je nach Gammawert erfasst die Spreizung mehr die dunklen bzw. hellen Bildbereiche und es wird die Helligkeit der Bilder insgesamt vergrößert oder verkleinert.
high_low = stretchlim(I)
G = 3 %gammawert
B = imadjust(high_low,[],G)
Was versteht man unter Korrelation?
Bei einer Korrelation wandert die Filtermaske über das Bild und alle übereinander liegenden Werte werden miteinander multipliziert und anschließend aufsummiert. Es handelt sich um ein lineares Filter.
Was versteht man unter dem Polarisierten Licht? (+ Anwendungsbeispiele)
Polarisiertes Licht schwingt nur in einer Richtung quer zur Ausbreitungsrichtung. Reflektiert eine spiegelnde Oberfläche nun dieses Licht, dann ist dieses ebenso polarisiert. Nun kann ein um 90° gedrehter Polarisationsfilter verwendet werden, welcher das reflektierte Licht nicht durchlässt. Somit werden ungewollte Reflexionen vermieden.
Anwendung:
Was ist polarisiertes Licht?
Wie funktioniert ein Polarisationsfilter?
Wie funktioniert eine Kantendetektion?
Über Ableitungen:
z.B Steigungsdreieck : Delta y / Delta x
Delta y = Helligkeitsdifferenz
Delta y = Pixelabstand
Oder:
Kann vor allem mit der Canny-Methode erzielt werden:
Funktionsweise:
1. Gradienten bestimmen (Ableitung eines Gauß-Filters)
2. Kantenausdünnung (es werden die lokalen Maxima der Beträge des Gradienten gesucht, der Rest wird null (kein Kantenpunkt))
3. Schwellwertoperation mit Hysterese (die gefunden Maxima aus 2 werden zusätzlich noch gefiltert mit einem Schwellenwert, um mit höherer Sicherheit eine Kante zu erkennen)
4. Klassifizierung der unsicheren und ausgeschlossenen Kantenpunkte mittels Verbindungsanalyse auf Basis der Hypothese von zusammenhängenden Kantenpunkten
Das Rauschen des Bildes wird mit einem Tiefpass- bzw. Gaußfilter minimiert.
Mithilfe des Sobelfilters werden die partiellen Ableitungen bestimmt.
Mithilfe der partiellen Ableitung kann die Richtung des Gradienten einer Kante durch einen Pixel bestimmt werden.
Der Wert dieses Pixels wird durch den euklidischen Betrag der partiellen Ableitungen gebildet (absolute Kantenstärke) und in ein neues Bild übertragen.
Die Kanten werden nun abgelaufen und nur die Werte übernommen, die Maximal sind (Links-Rechts-Vergleich der Pixel). Die kleineren Werte werden auf 0 gesetzt. Somit werden die Kanten nur einen Pixel breit.
Durch eine Hysterese mit zwei Schwellwerten wird zuletzt entschieden, welche Pixel zu einer Kante gezählt werden sollen.
Was versteht man unter Helligkeit und Kontrast eines Bildes?
Helligkeit
Unter der Helligkeit eines Bildes versteht man den Mittelwert der im Bild vorhandenen Grauwerte. Besteht ein Bild nur aus Grauwerten von geringer Wertigkeit, dann erscheint es allgemein dunkler. Sind die Grauwerte im Mittel jedoch höher, dann handelt es sich um ein helleres Bild.
Kontrast
Der Kontrast bezieht sich auf das Spektrum bzw. die Breite der in einem Bild vorhandenen Grauwerte. Dieser ist maximal, wenn Grauwerte mit der kleinst und größt möglichen Wertigkeit im Bild existieren. Er bezieht sich allgemein jedoch immer auf den kleinsten und größten vorhandenen Grauwert. Der kleinste vorhandene Grauwert wird vom größten abgezogen und es wird durch die Anzahl der möglichen Grauwerte (255 bei 8bit) geteilt.
Was versteht man unter der numerischen Apertur eines Objektivs?
Die numerische Apertur ist ein Zahlenwert, abhängig vom Öffnungswinkel des Objektivs und vom Brechungsindex des umgebenden Mediums.
Je größer die numerische Apertur des Objektives ist, desto mehr Licht tritt ein und desto höher ist das Auflösevermögen. Die Apertur setzt sich zusammen aus dem Brechungsindex zwischen Objektivdeckglas und Objektivlinse und dem halben Öffnungswinkel.
Formel:
NA = n*sin(α)
Brechungsindex n
halber Öffnungswinkel (Objektiv) α
Welche Anwendung von Korrelation kennen Sie?
Wird z.B. zur Glättung (Gauß-Filter) und für die Mittelwertbildung (Average-Filter) oder bei template matching eingesetzt.
Skizzieren Sie die Abbildung eines Gegenstandes durch eine dünne Linse mithilfe des Parallelstrahls und des Brennpunktstrahls.
Was ist ein Rangordnungsfilter? Nennen Sie Beispiele.
Die Elemente innerhalb der Filtermaske werden nach ihrer Größe geordnet, und zwar von klein nach groß. Je nach Filter wird dann ein Wert der Rangordnung ausgewählt und in die Maskenmitte übertragen.
Code 3x3 Minimumfilter:
B = ordfilt2(I,1,ones(3,3))
Code 3x3 Maximumfilter:
B = ordfilt2(I,9,ones(3,3))
Code 3x3 Medianfilter:
B = ordfilt2(I,5,ones(3,3))
Was versteht man unter Rolling Shutter und Global Shutter?
Allgemein: Verfahren, um den Start und das Ende der Beleuchtungszeit festzulegen.
Rolling Shutter:
Die Ladungen in der Sensormatrix werden Zeile für Zeile nacheinander gelöscht und parallel dazu ausgelesen. Der Zeitversatz zwischen den Löschvorgängen benachbarter Zeilen entspricht der Auslesedauer einer Zeile.
Global Shutter:
Die während der Beleuchtung frei werdenden Ladungen können pro Pixel zwischengespeichert und zu beliebiger Zeit ausgelesen werden (sehr aufwendig). Ebenso betreffen Lösch- und Auslesevorgänge alle Pixel der Matrix.
Wie funktioniert die Histogrammebnung und wofür wird sie benötigt?
Definition Histogrammebnung (Grauwertspreizung)
Die Histogrammebnung ist ein Algorithmus, der für eine Kontrastverstärkung anhand optimaler Nutzung des Wertebereichs sorgt. Hierfür werden die Grauwerte, die den größten Einfluss auf das Bild haben, gespreizt.
Vorgehensweise
1.) Bestimmung des normalisierten Histogramms. Hierfür wird wie üblich ein Histrogramm des Bildes erstellt, diesmal jedoch mit den relativen Häufigkeiten fk der jeweiligen Grauwerte
2.) Bestimmung der kumulierten relativen Häufigkeit FK
3.) Die jeweiligen Grauwerte werden im Zielbild durch ihre kumulierten relativen Häufigkeiten ersetzt
4.) Um den vollständigen Grauwertbereich zu erfassen, wird jeder Grauwert im Ergebnisbild mit (K−1) multipliziert
Vorher-Nachher-Vergleich
Was ist die Canny-Methode?
Eine Hintereinanderausführung von unterschiedlichen Filtern, um eine Kantendetektion zu erzielen.
BW = edge(I,’canny’)
Alternativ - Die Canny-Methode in vier Schritten:
Rauschunterdrückung durch ein Glättungsfilter und Schätzung des Gradienten für jedes Bildelement nach Betrag und Winkel
Kantenausdünnung durch Unterdrückung von „falschen“ lokalen Maxima
Klassifizierung der Bildelemente unter Anwendung von zwei Hysterese-Schwellenwerten in „sichere“, „unsichere“ und „ausgeschlossene“ Kantenpunkte und
abschließende Klassifizierung der „unsicheren“ Kantenpunkte mittels Verbindungsanalyse auf der Basis der Hypothese von zusammenhängenden Kantenpunkten
In welchem Wellenlängenbereich ist Licht sichtbar?
Alle Farben im Spektrum von 400nm - 750nm sind für das menschliche Auge sichtbar. Infrarotes (>750nm) und ultraviolettes Licht (<400nm) hingegen fallen aus dem sichtbaren Bereich des Menschen heraus.
Welcher Zusammenhang besteht zwischen einer linearen Filterung und einer Faltung?
Ein lineares Filter ist letztendlich nichts anderes als eine (Kreuz-)Korrelation. Dreht man die Filtermaske um 180° dann erhält man die lineare Faltung.
Was ist Opening und Closing bei morphologischen Transformationen?
Allgemein:
Es handelt sich hierbei um eine Hintereinanderausführung von Dilatation und Erosion (bzw. umgekehrt). Die Funktion ist nicht invers, da verschwundene Elemente nicht wiederhergestellt werden können.
Opening:
Es wird zuerst eine Erosion durchgeführt und die Bildobjekte schrumpfen. Danach wird eine Dilatation durchgeführt und die Bildobjekte wachsen wieder. Objektmerkmale, welche bei der Erosion vollständig verschwunden sind (also kleiner als das Strukturelement waren), werden bei der Dilatation nicht wiederhergestellt.
Closing:
Es wird zuerst eine Dilatation durchgeführt und die Bildobjekte wachsen. Danach wird eine Erosion durchgeführt und die Bildobjekte schrumpfen wieder. Öffnungen von Objekten, welche bei der Dilatation komplett geschlossen wurden (also kleiner als das Strukturelement waren), werden bei der Erosion nicht wieder geöffnet.
I = imread(“rice.png”)
Q = strel(“disk”,16)
E = imerode(I,Q)
D = imdilate(E,Q)
bzw.
Was ist ein Hotspot?
Als Hotspot wird der Mittelpunkt einer Filtermaske bezeichnet.
Was versteht man unter einer beugungsbegrenzten optischen Abbildung?
Es treten sowohl Fehler in Form von geometrischer Aberration (Abbildungsfehler) als auch in Form von Beugung auf. Wenn die Aberrationen soweit korrigiert sind, dass diese Fehler kleiner sind als die Beugungsfehler, dann ist beugungsbegrenzte Bildqualität vorhanden.
Was ist ein Differenz-Filter?
Das Differenz-Filter ist ein Filter, welches negative Koeffizienten in der Filtermaske enthält. Bei der Berechnung dieses linearen Filters handelt es sich letztendlich um eine Differenz der einzelnen Produkte, wenn auch positive Koeffizienten vorkommen.
Was muss man beachten, wenn eine sehr hohe Messgenauigkeit gefordert ist?
Beleuchtung:
Es wird eine enorm stabile (durch Stromstabilisierung) und telezentrische (durch exakt parallelen Strahlengang) Hintergrundbeleuchtung benötigt.
Objektiv:
Es wird ein telezentrisches Objektiv benötigt, welches exakt auf die Messebene fokussiert ist.
Kamera:
Die benötigte Kamera muss hochauflösend sein. Die Messung ist durch genauere Werte somit stabiler.
Was ist das Histogramm eines Bildes?
Das Histogramm eines Bildes stellt die absolute Häufigkeit der einzelnen Grauwerte über dessen Wertigkeit dar.
J = rgb2gray(I)
[H,x] = imhist(J)
Welche Methoden zur Binarisierung eines Bildes kennen Sie?
Schwellenwertsegmentierung nach Otsu
Manuell: Man wählt den Wert zwischen den Extrema des Histogramms
Nennen Sie eine konkrete Anwendung der CHT.
Wird beispielsweise benutzt um die Iris von Menschen zu unterscheiden (recognition systems)
Erkennung von Münzen oder runden Objekten im allgemeinen
Was ist ein Grauwertbild?
Jedem Pixel eines Bildes wird ein Grauwert zugeordnet. Dieser kann bei 8bit Wertigkeiten zwischen 0 und 255 annehmen. Durch die Grauwerte können Rückschlüsse auf die Helligkeit und den Kontrast des Bildes getroffen werden.
G = rgb2gray(I)
Was macht ein Laplace-Filter?
Ein Laplace-Filter wird für die Kantenschärfung verwendet. Es wird eine Filtermaske verwendet, welche die zweite Ableitung des Eingangsbildes bildet. Anschließend wird das daraus resultierende Bild mit einem Faktor w (omega) multipliziert und das Produkt vom Originalbild abgezogen.
h = fspecial(‘laplacian’,alpha)
B = imfilter(I,h,padding,options)
F = I - w*B
Was für Filteroptionen gibt es bei dem Matlab-Befehl “imfilter”?
‘symmetric’ :
Die Werte am Bildrand werden gespiegelt und in die Bildpixel unter der Filtermaske außerhalb des Bildes eingefügt. Die Bildkante dient als Spiegelachse.
‘replicate’ :
Die Werte am Bildrand werden in die naheliegensten Bildpixel unter der Filtermaske außerhalb des Bildes eingefügt.
‘circular’ :
Es wird eine kreisförmige Filtermaske verwendet.
‘same’ (mittelgroßes Ausgangsbild)
Die Filtermaske liegt für jede Operation mindestens mit ihrem Hotspot über dem zu filternden Bild.
‘full’ (großes Ausgangsbild):
Das Zentrum der Filtermaske liegt für jede Operation mit mindestens einem Element über dem zu filternden Bild.
‘valid’ (kleines Ausgangsbild)
Die Filtermaske liegt für jede Operation vollflächig über dem zu filternden Bild.
‘corr’:
Es wird eine Kreuzkorrelation des Bildes mit der Filtermaske durchgeführt (lineare Filterung mit nicht gespiegeltem Faltungskern).
‘conv’:
Es wird eine Konvolution des Bildes mit der Filtermaske durchgeführt (lineare Faltung mit 180° gedrehtem Faltungskern).
Welchen Filter verwendet man, um Rauschen zu minimieren?
Hier eignet sich ein Medianfilter, da dieser sogenante Ausreißer herausfiltert. Ebenso kann auch ein lineares Filter wie der Gauß-Filter eingesetzt werden.
Was ist eine Konvolution?
Konvolution ist ein anderer Begriff für die lineare Faltung. Letztendlich ist diese ein lineares Filter mit einer um 180° gedrehten Filtermaske.
Was ist der Brennpunkt einer Linse?
Fällt Licht genau senkrecht auf die Linse (Parallelstrahl), dann wird es so gebrochen, dass es durch den Brennpunkt läuft. Dies ist der Fall, wenn das reflektierende Objekt oder die Lichtquelle extrem weit von der Linse entfernt ist.
Welche Methoden zur Kontrastanpassung kennen Sie?
Lineare Grauwertspreizung
Gammakorrektur
Histogrammebnen
Welchen Einfluss haben die Wellenlängen des einfallenden Lichts und numerische Apertur eines Objektivs auf das laterale Auflösungsvermögen des Ojektivs?
Je höher die numerische Apertur und somit der Öffnungswinkel des Objektivs, desto mehr Licht kann eintreten. Desto mehr Licht, desto besser die Auflösung.
Ebenso nimmt die Auflösung mit verkleinerter Wellenlänge zu.
Wie funktioniert Kantenschärfung?
Die Kanten in einem Bild können mithilfe des Histogramms detektiert werden. Anschließend wird mithilfe einer Filtermaske das Eingangsbild zweifach abgeleitet und mit einem Skalar multipliziert. Dieses zieht man nun vom ursprünglichen Eingangsbild ab und es entsteht ein Ausgangsbild mit bearbeiteten Kanten, je nach Wahl des Skalars.
Was macht ein Sobel-Filter?
Ein Sobel-Filter ist ein glättendes Kantenfilter, welcher die partiellen Ableitungen entlang der horizontalen und vertikalen Bildrichtung berechnet. Es wird ein Gradientenbild erzeugt. Mit diesem werden hohe Frequenzen im Bild mit Grauwerten dargestellt. Die Bereiche mit der größten Intensität sind dort, wo sich die Helligkeit des Originalbildes am stärksten ändert und somit die größten Kanten darstellt. Orthogonal zu den Ableitungsrichtungen findet eine Glättung statt.
Code 1:
h = fspecial(‘sobel’)
sobh = imfilter(double(A),h,options)
sobv = imfilter(double(A),h’,options)
sobc = abs(sobv)+abs(sobh);
sobc = imbinarize(sobc/max(max(sobc)));
sobc = imcomplement(sobc);
Code 2:
BW1 = edge(I,’sobel’)
Wie erreicht man Subpixelgenauigkeit bei der Abstandmessung?
Durch die Mittelung aller Bildpunkte berechnet man einen Wert für den Schwerpunkt, welcher Nachkommastellen besitzt. Dieser besitzt eine höhere Genauigkeit als die Pixelkoordinaten. Der berechnete Abstand kann somit rational angegeben werden. Die Schwerpunktsberechnung ist unempfindlich gegenüber verschiedenen Beleuchtungsstärken.
Was ist die Schwellenwertsegmentierung nach Otsu?
Durch ein stochastisches Verfahren wird ein Schwell- bzw. Grauwert berechnet, der das zugehörige Histogramm in zwei Segmente aufteilt. Alle Grauwerte unterhalb des Schwellwertes werden schwarz, die darüber weiß. Diese Methode wird benutzt, um Objekte im Bild zu identifizieren.
BW = imbinarize(I,graythresh(I))
Erläutern Sie die Hough-Transformation zur Geradendetektion.
Es wird ein Koordinatensystem über das zu untersuchende Bild gelegt, dessen Ursprung sich in der linken oberen Ecke befindet. Von diesem Ursprung aus können jegliche Geraden in der Hesseschen Normalform bestimmt werden und zwar mithilfe des Abstandes ρ und des Winkels zwischen dem Abstand ρ und der x-Achse (vertikal).
Nun kann ein Punkt im Bild gewählt werden und im Hough-Raum wird jede Gerade dargestellt, welche durch diesen Punkt läuft. Man kann auch mehrere Punkte auswählen und beobachten, welche Gerade all diese Punkte beinhaltet. Diese Gerade ist da im Raum, wo alle Graphen sich kreuzen.
Was ist ein Average-Filter?
Ein Average-Filter ist ein lineares Filter, der den Mittelwert aus der Nachbarschaft berechnet und in den Hotspot der Filtermaske einträgt.
h = fspecial(‘average’,hsize)
h = ones(N)./N.^2
symmetric,replicate,circular,same,full,
corr
,conv
Was sagt das Nyquist-Shannon-Abtasttheorem aus?
Um analoge Werte in digitale Werte umzuwandeln, müssen diese abgetastet werden. Die Abtastrate muss doppelt so hoch wie die Eigenfrequenz des analogen Signals sein.
Wie kann man Abstände zwischen Objekten messen?
Durch Mittelung aller Bildpunkte eines Objektes lässt sich dessen Schwerpunkt bestimmen. Über den Satz des Pythagoras lässt sich nun der Abstand von zwei Schwerpunkten in Pixel bestimmen. Ebenso kann mit einem Kalibrierungskoeffizienten multipliziert werden, welcher die Pixel in eine richtige Maßeinheit umwandelt.
Was versteht man unter der strukturierten Beleuchtung? (+Anwendungsbeispiele)
Durch strukturierte Lichtquellen lassen sich bestimmte geometrische Formen auf das Objekt projizieren. Somit können Vermessungen und Anwesenheitskontrollen ohne einen Helligkeitskontrast realisieren.
Linie wird auf Objekt projiziert, um Höhe zu messen:
Was versteht man unter Gerichtetem Auflicht? (+Anwendungsbeispiele)
Wie kann man hierbei die Kamera platzieren?
Es handelt sich um Auflicht, welches nur mit einem definierten Winkel auf die Objektoberfläche trifft und diese nicht vollständig beleuchtet. Man unterscheidet zwischen zwei Anordnungen, die Kamera zu positionieren.
Hellfeldbeleuchtung:
Die Kamera befindet sich im theoretischen Ausfallswinkel des einfallenden Lichts. Objekte mit glatter oder spiegelnder Oberfläche erscheinen somit sehr hell.
Dunkelfeldbeleuchtung:
Die Kamera befindet sich außerhalb des theoretischen Ausfallswinkels des einfallenden Lichts. Glatte bzw. spiegelnde Oberflächen erscheinen als dunkel, Anomalien in der Oberfläche jedoch als hell, da sie den Reflexionswinkel ändern.
Welche typischen Anwendungen von Vermessungsaufgaben gibt es?
Montagekontrolle:
Vermessung, um Anwesenheit von Gegenständen oder sonstigen Konstruktionen zu überprüfen (Anwesenheitskontrolle)
Formkontrolle:
Vermessung, um Abweichungen von Konstruktionen bezogen auf ihre Idealform zu erfassen. Eine hohe relative ist oft wichtiger als die absolute Genauigkeit.
Maßprüfung:
Das absolute Maß einer Konstruktion muss mit hoher Genauigkeit erfasst werden.
Was versteht man unter diffusem Auflicht? (+Anwendungsbeispiele)
Die Lichtquelle befindet sich auf der selben Seite wie die Kamera (Auflicht) und die Beleuchtung hat keine eindeutig festgelegte (diffuse) Richtung. Diesen Effekt erzielt man, wenn das Licht von einer großen Fläche abgestrahlt wird. Starke Reflexionen und Verschattung wird somit vermieden.
Welche Typen von Halbleitersensoren in der industriellen Bildverarbeitung unterscheidet man und wie funktionieren sie?
Unterscheidung nach Sensoranordnung:
Matrixsensoren:
Die lichtempfindlichen Elemente des Sensors sind matritzenförmig angeordnet. Die Zeilen und Spalten eines Bildes werden während einer einzigen Belichtungszeit aufgenommen.
Zeilensensoren:
Die lichtempfindlichen Elemente des Sensors bestehen aus einer einzigen Zeile. Es werden mehrere Zeilen hintereinander aufgenommen und anschließend zu einem Gesamtbild zusammengesetzt.
Unterscheidung nach Funktionsweise:
CCD-Sensoren bzw. CMOS-Sensoren:
Das Funktionsprinzip ist bei beiden Varianten gleich. Es werden Photodioden über einen definierten Zeitraum bestrahlt und je nach Lichtintensität werden Ladungen freigesetzt (lichtelektrischer Effekt). Bei einem CCD-Sensor wird die Ladung jedes Pixels über Register ausgelesen und nach Ableitung über einen Ausgangsverstärker (Tap) in eine Spannung umgewandelt. Es gibt zwei Architekturen: Inline und 4-Tap.
Bei einem CMOS-Sensor hingegen werden Feldeffekt-Transistoren verwendet und die freigesetzten Ladungen werden direkt am Pixel in eine Spannung umgewandelt. Die Pixel-Spannungen können Zeile für Zeile auf die Column-Line gelegt und Spalte für Spalte mit der horizontalen Steuerung und einem Ausgangsverstärker ausgelesen werden. Somit kann auf jeden Pixel separat zugegriffen werden.
Was ist Füllen bei morphologischen Transformationen?
Wird durchgeführt, damit Objekte keine Hintergrundelemente einschließen. Es basiert auf Dilatation, Invertierung und Überschneidung. Das Bild (A) wird binarisiert und invertiert, sodass der Hintergrund weiß und das eigentliche Objekt schwarz ist (A^c). Dann wird die Filtermaske mit ihrem Hotspot am ersten Punkt (p) des Objektes angesetzt. Jetzt wird auf diesen Pixel eine Dilatation angewendet und die Schnittmenge mit A^c gebildet. Die Dilatation und die Schnittmenge werden nun iterativ ausgehend vom vorherigen Schritt gebildet, solange, bis keine Änderung zwischen den Schritten auftritt. Die Schnittmenge sorgt dafür, dass die Dilatation nicht über den Hintergrund hinausläuft und nur das Objekt übrig bleibt.
Code-Beispiel:
F = imfill(I,"holes")
Wozu braucht man eine Kalibrierung des Systems? Wie geht man vor, und was muss man beachten?
Man braucht bei der Vermessung von bestimmten Konstruktionen Referenzwerte, um diese beurteilen zu können. Hierfür werden Kalibriernormale bzw. Musterteile verwendet. Die präzisen Musterteile werden hierbei exakt ausgemessen. Die eigentlichen Prüfteile müssen unter exakt den gleichen Bedingungen ausgemessen werden wie das Musterteil. Dafür werden einige Prüfteile mit hoher Präzision gefertigt, welche zusätzlich als Musterteil dienen. Somit gewähleistet man, dass sich Muster- und Prüfteil kaum unterscheiden.
Was ist eine Dilatation bei morphologischen Transformationen?
Ein Strukturelement Q wird quasi als Filtermaske verwendet und wandert über das zu vergrößernde Bildobjekt (Punktmenge). Gehört in einem Punkt mindestens ein Nachbar zum Bildobjekt, dann wird dieser Punkt in das Ergebnisbild übertragen. Die Nachbarschaft wird dabei von dem Strukturelement festgelegt.
Letztendlich werden somit die Objekte eines Bildes vergrößert.
E = imdilate(I,Q)
Was versteht man unter der Diffusen Hintergrundbeleuchtung? (+Anwendungsbeispiele)
Eine Lichtquelle sorgt mithilfe eines Diffusors (Lichtstreuung) für eine großflächige Beleuchtung. Die Lichtquelle befindet sich hierbei hinter bzw. unter dem Objekt.
Diffuse Hintergrundbeleuchtung kann genutzt werden um den Umriss von Objekten klar darzustellen. Zum Beispiel kann man damit das Gewinde einer Schraube scharf darstellen. Diese Methode ist besonders sinnvoll, wenn die Oberfläche des Objekts nicht relevant ist. Zum Beispiel bei der Vermessung von Bohrungen.
Was versteht man unter der Ringbeleuchtung? (+Anwendungsbeispiele)
Eine Beleuchtungsart, welche schattenfreies Licht hoher Intensivität liefert. Dieses fällt entlang der optischen Achse der Kamera ein.
Diese Beleuchtung kann gut für unebene Flächen genutzt weden, da hier Schattenwurf vermieden wird. Zum Beispiel die Aufnahme einer Platine mit großen Bauteilen, um Anwesenheitdkontrollen vorzunehmen.
Was ist eine Erosion bei morphologischen Transformationen?
Ein Strukturelement Q wird quasi als Filtermaske verwendet und wandert über das zu verkleinernde Bildobjekt (Punktmenge). Gehören in einem Punkt des Objektes alle Nachbarn ebenso zum Objekt, dann wird dieser Punkt in das Ergebnisbild übertragen. Die Nachbarschaft wird dabei von dem Strukturelement festgelegt.
Letztendlich werden somit die Objekte eines Bildes verkleinert.
Was ist die Zylinderhut-Transformation?
Durch diese Transformation bleiben nur die Objekte eines Bildes übrig, welche kleiner als das Strukturelement sind. Es wird zuerst eine Erosion durchgeführt, welche die Elemente, die kleiner als das Strukturelement sind, beseitigt. Die größeren Objekte, welche durch die Erosion verkleinert wurden, werden anschließend durch eine Dilatation wieder vergrößert. Zieht man das entstandene Bild vom Originalbild ab, dann erhält man ein Bild ausschließlich mit den Objekten des Bildes, welche kleiner als das Strukturelement waren.
A = I - D
oder
T = imtophat(I,Q)
Welche wichtigen Eigenschaften von Sensoren müssen bei der Systemauslegung beachtet werden?
Pixelgröße:
Mit der Größe des Pixels steigt die lichtempfindliche Fläche und somit die Empfindlichkeit des Pixels. Ebenso können mehrere Ladungen gespeichert werden und der Wertebereich steigt.
Auflösung:
Anzahl aller Pixel der Sensormatrix (oft wird auch Anzahl in vertikaler und horizontaler Richtung angegeben). Bei Zeilensensoren ist die Anzahl der Zeilenpixel entscheidend.
Optisches Format:
Die Diagonale des Bildsensors. Wird in Inch angegeben, wobei ein Inch jedoch 16mm beträgt (aufgrund historischer Entwicklungen). Setzt die Auflösung und die Pixelgröße ins Verhältnis.
Quanteneffizienz:
Nicht alle Photonen setzen im Sensorpixel eine Ladung frei (z.B. wenn es auf den lichtunempfindlichen Teil des Pixels trifft). Als Quanteneffizienz wird das Verhältnis zwischen den freigesetzten Elektronen und den eingetroffenen Photonen bezeichnet.
Füllfaktor:
Das Verhältnis aus der lichtunempfindlichen Fläche und der Gesamtfläche eines Pixels. Er hat somit Einfluss auf die Quanteneffizienz.
Mikrolinsen:
Die Linsen fokussieren das einfallende Licht auf die lichtempfindlichen Stellen des Pixels. Sie werden bei Pixeln mit schlechtem Füllfaktor eingesetzt.
Spektrale Lichtempfindlichkeit:
Bei zu langwelligem Licht wird der Bildsensor durchstrahlt und es werden keine Ladungen freigesetzt. Ist es zu kurzwellig, dann werden bereits außerhalb des Ladungsspeichers Elektronen gelöst. In beiden Fällen ist die Quanteneffizient schlecht. Wird häufig als Verhältnis zwischen Quanteneffizienz bei bestimmter Wellenlänge und maximaler Quanteneffizienz dargestellt.
Linearität:
Die Ladungen eines Pixels steigen ungefähr linear mit der Anzahl der eintreffenden Photonen bis zur Full Well Capacity (Ladungsmaximum erreicht). Gibt an, inwiefern Ausgangssignal der Kamera linear mit Anzahl der einfallenden Photonen steigt.
Rauschen:
Photonenrauschen
Fixed Pattern Noise
Bildaufnahmeeffekte:
Smear:
Bei CCD-Sensoren entstehen Ladungen in den Transportregistern, da diese nicht vollständig abgeschirmt sind. Diese werden nicht gelöscht und beim Auslesen aufsummiert.
Blooming:
Wird die Full Well Capacity eines Pixels bei zu viel Licht überschritten, dann werden Ladungen auf die benachbarten Pixel übertragen. Dessen Helligkeit steigt somit an.
Sind Erosion und Dilatation zueinander inverse Operationen?
Nein, die Operationen sind nicht invers. Wenn bei einer Erosion Bildmerkmale vollständig verschwinden bzw. bei einer Dilatation Lücken/Löcher vollständig geschlossen werden, dann können diese nicht wieder durch die jeweils andere Funktion hergestellt werden.
Wie kann man in der Praxis überprüfen, welche räumliche Auflösung die Kamera erreicht?
Man kann die Numerische Apertur (NA) auf dem Objektiv und die Auflösung der Kamera in Megapixel (MP) ablesen. Desto höher diese Werte, desto besser die Auflösung.
Vielleicht auch ein großes Objektiv im Einsatz (besser)
Erläutern Sie die Dombeleuchtung.
Bei der Dombeleuchtung handelt es sich um Beleuchtungen, die eine gleichmäßige bzw. homogene Ausleuchtung des Prüfobjekts ermöglichen, um komplexe spiegelnde Formen wie z.B. Kugellager, bedruckte Folienverpackungen oder CDs zu beleuchten. Bilder, die mit einer Dombeleuchtung aufgenommen wurden, weisen meist in der Mitte einen dunkleren Bereich auf, da die Beleuchtung eine Öffnung für die Kamera benötigt.
Erläutern Sie die Koaxialbeleuchtung.
Diese Technik wird zur Ausleuchtung von reflektierenden Oberflächen eingesetzt. Mit Hilfe eines Strahlteilers oder eines halbdurchlässigen Spiegels wird das von einer seitlich angebrachten (bzw. koaxialen) Lichtquelle kommende Licht abgelenkt und nahezu parallel zur optischen Achse der Kamera projiziert.
Die Technik der Koaxialbeleuchtung ist ideal für Objekte mit ebener, reflektierender oder glänzender Oberfläche, die kein oder ein sehr geringes Profil aufweisen, oder auch für Oberflächen mit diffusem Hintergrund. Beispiele dafür sind die Prüfung von Leiterplatten, reflektierenden Aufklebern, polierten Silizium-Wafern sowie Druckinspektionen.
Beschreiben Sie, wie man durch Aufnahme und Auswertung einer Fokusserie den scharfen Bereich erweitern kann. Welche Art von Objektiv wird dabei eingesetzt, und warum?
Das Objekt wird mehrfach fotografiert, damit in allen Bildern mindestens jede Region einmal scharf dargestellt wird. Die Bilder können dann zu einem vollkommen scharfen Bild kombiniert werden.
Man verwendet ein telezentrisches Objektiv (muss im Durchmesser so groß wie das Objekt sein), welches verzerrungsfreie Bilder liefert
Nennen Sie eine Anwendung, bei der eine begrenzte Schärfentiefe auftritt, die störend ist.
Nahaufnahmen
Lösung: Sehr hohe Blendenzahl, kleine Brennweite
Nennen Sie typische Prüfziele eines Machine Vision Systems.
Objekterkennung
Lageerkennung
Vollständigkeitsprüfung
Form- und Maßprüfung
Oberflächeninspektion
Farbverarbeitung
Was genau ist mit Template Matching gemeint?
Template Matching beschreibt das Untersuchen eines Bildes auf ein gesuchtes Objekt. Die Filtermaske sieht dabei aus wie das gesuchte Objekt und ist eine Art Vorlage. Dadurch erhält man Peaks an denen das Template mit dem Bild übereinstimmt und man weiß, wo sich gesuchte Objekte befinden.
Was ist eine Filtermaske?
Die Filtermaske ist eine Matrix, die vorgibt mit welcher Gewichtung die Pixel der Nachbarschaft berücksichtigt werden.
Was versteht man unter einem LoG-Filter? Warum benutzt man dieses Filter?
Das Laplacian-of-Gaussian Filter ist eine Kombination aus Laplace-Filter und Gauß-Filter. Da das Laplace Filter anfällig für Rauschen ist, kombiniert man ihn mit einem Glättungsfilter(Gaußfilter).
Was versteht man unter der Blendenzahl?
Die Blendenzahl ist der Kehrwert der relativen Öffnung:
k = f/d
Sie ist das Verhältnis zwsichen der Brennweite f und Blendendurchmesser d.
Was sind Abbildungsfehler und wie äußern sich diese im Bild?
Abbildungsfehler treten bei allen Linsen auf und führen zu ungewünschten Bildeffekten. Diese können sich in unterschiedlicher Weise je nach Phänomen im Bild äußern. Typische Abbildungsfehler sind:
Chromatische Abberation entstehen dadurch, dasss Licht unterschiedlicher Wellenlängen auch unterschiedlich stark gebrochen werden, was bei einer einheitlichen Brennweite zu Problemen führen kann. Theoretisch ist bei einer einfachen Linse nur Licht einer einzigen Farbe exakt fokussiert,sodass es zu Farbrändern kommt. Daher ist für hochgenaue Messaufgaben monochromatisches Licht am besten geeignet.
Sphärische Fehler treten auf bei Lichtstrahlen, die weit von der optischen Achse entfernt sind und somit in einem flachen Winkel auf die Oberfläche der Linse auftreffen. Dies führt ebenfalls zu einer stärkeren Brechung des Strahls. Man kann diesem Fehler durch Abblenden entgegnen, die nur noch achsennäheres Licht passieren lassen.
Bildfeldwölbung kommt dadurch zu Stande, dass das Bild auf einer gewölbten Fläche erzeugt wird und die Bildränder dementsprechend unscharf werden.
Verzeichnung meint die Krümmung von Geraden, die beispielsweise bei der Abbildung eines rechteckigen Gitters auftreten. Je weiter die Geraden von der optischen Achse entfernt sind, desto stärker tritt der Effekt auf.
Was ist eine Beugungsgrenze?
Ein perfekter Punkt abgebildet über ein Objektiv würde nicht perfekt abgebildet werden können
Auch wenn das Objekt keine Abbildungsfehler macht, würde es aus dem Punkt ein verschmiertes kleines Plättchen machen (kann sehr sehr klein sein)
Beugungsgrenze = physikalische Grenze
-> Man kann einen Punkt nur bis zur Beugungsgrenze klein abbilden über ein Objektiv. Die Beugungsgrenze ist gegeben durch die numerische Apertur (Öffnung des Objektivs) und der Wellenlänge.
Je größer die Öffnung desto kleiner das Beugungsscheibchen und je kürzer die Wellenlänge desto kleiner das Beugungsscheibchen
Worin unterscheiden sich Gauß- und Medianfilter?
Beim Medianfilter bleiben die Kanten erhalten. Medianfilter bei Salz-Pfeffer.
Gaußfilter bei regelmäßigem Rauschen.
Warum können große Objektive von Vorteil sein?
Mehr Licht tritt in die Öffnung ein und somit nimmt die benötigte Beleuchtungszeit ab. Eine Bewegungsunschärfe kann somit minimiert werden.
Wie können mit einer Kreuzkorrelation Objekte erkannt werden?
Zum Beispiel für Buchstabenerkennung die Filtermaske wie den Buchstaben auslegen. Wenn die Filtermaske dann über dem Buchstaben liegt gibt es einen Peak (durch lineare Filterung).
Was sind Teile eines Machine Visions Systems
Beleuchtung
Kamera (Sensor, Objektiv, Linse)
Computer
Schnittstelle
Bildverarbeitungssoftware
Was genau ist die Schärfentiefe?
Bilder können mit einem Objektiv nur in einem bestimmten Abstandsbereich scharfgestellt werden. Wird der Abstand zu groß oder zu klein und somit der Bereich verlassen, dann ist das Bild unscharf. Der durch diese Grenzen eingeschlossene Bereich wird Schärfentiefe genannt. Die Schärfentiefe lässt sich anhand der Blende einstellen und ist somit proportional zur Blendenzahl. Zudem ist die Schärfentiefe von der Brennweite und dem Abstand zum Objekt abhängig.
Was kann man machen um die optische Auflösung des Objektivs zu vergrößern?
Das Objektiv muss eine große Öffnung haben
Damit mehr Licht in die Kamera kommt -> kürzere Belichtungszeit
kurze Belichtungszeit wichtig für bewegte Gegenstände (Bewegungsunschärfe)
kurzwelliges Licht verwenden (kleinere Airy Scheibchen)
Ein Bildverarbeitungsprozess enthält folgende Schritte:
Bildaufnahme
Bildvorverarbeitung
Setzen von einem oder mehreren Arbeitsbereichen
Erzeugung von Objekten
Berechnung von Objekeigenschaften
Entscheidung über die Korrektheit der vorhandenen Objekte
Nennen Sie zu jedem Schritt die Definition und wenn möglich einige Beispiele.
Bildaufnahme:
Das Bild wird in eine Matrix umgewandelt und in das Programm geladen
Bildvorverarbeitung:
Das Bild wird zum weiteren Vorgehen vorverarbeitet, z.B. in ein Grauwert- oder Binärbild umgewandelt, Rauschen wird entfernt, etc.
Setzen von einem oder mehreren Arbeitsbereichen:
Festlegung, wo im Bild etwas verändert bzw. ausgewertet werden soll
Erzeugung von Objekten:
Objekte werden vom Hintergrund getrennt, z.B. durch Binärisierung (Schwellenwertsegmentierung) oder Kantendetektion, generell auch Template Matching möglich (z.B. Korrelation mit objektförmiger Maske), Kombination von Max- und Min-Filter
Berechnung von Objekteigenschaften:
Die im vorherigen Schritt entstandenen Objekte können nun beispielsweise ausgemessen werden (Durchmesser von Bohrungen/Bauteilen) und ihr Abstand bestimmt werden (Schwerpunktberechnung mit anschließendem Pythagoras)
Entscheidung über die Korrektheit der vorhandenen Objekte:
Die gemessenen Werte werden mit Toleranzen bzw. Richtwerten verglichen und bewertet.
Kann eine Kamera Infrarot sehen?
Ja bis zu einem gewissen Punkt, da eine Kamera meist etwas höher als das menschliche Auge bis in den infraroten Bereich auflöst.
Wozu wird die Bildverarbeitung angewendet?
Oberflächenkontrolle
Anwesenheitskontrolle von Objekten
Vermessungen von Objekten
Welche typischen Schritte werden bei der Auswertung eines Bildes angewandt?
Was sind typische Schritte der Bild-Vorverarbeitung?
Rauschunterdrückung (Gauß-, Medianfilter)
Kontrasterhöhung
Hintergrundkorrektur
Konvertierung in ein Grauwertbild
Binarisierung (auch Objekterzeugung)
Minimum- und Maximum-Filter für Hintergrundkorrektur
Wann verwendet man einen Median-Filter und wann einen Gauß-Filter?
Salz-Pfeffer Rauschen (Median)
Unkenntlich machen (Gauß)
Regelmäßiges Statistisches Rauschen (Gauß)
-> Median-Filter ist kantenerhaltend
-> Gauß-Filter lässt Kanten verschwimmen
Wie erzeugt man Objekte?
Trennung zwischen Objekt und Hintergrund
-> Schwellwertsegmentierung (Was ist Objekt und was Hintergrund)
Kantendetektion
Template-Matching
Hough-Transformation
Aus welchen Bestandteilen setzt sich eine Kamera zusammen?
Wie sieht die Filtermaske eines Mittelwert-Filters aus?
Wie sieht die Filtermaske eines Gaussschen-Glättungsfilters aus?
Der Mittelpunkt der Matrix hat die größte Gewichtung
Besteht aus zwie gaussschen Glockenkurven, in horizontaler und vertikaler richtung (3-dimensional)
Wie kann man mit einer Ableitung eine Kante finden im Bild
Änderung der Intensität
Numerische Detektion = Steigungsdreieck delta y/delta x
delta y = Differenz der Intensität
delta x = Pixelabstand
In welcher Form liegt ein Bild in der Bildverarbeitung vor?
Das aufgenommene Bild liegt als Bild-Matrix vor.
Was für Bild Arten gibt es?
Binärbild (0,1)
Grauwert Bild (8 Bit 0:255)
RGB Bild (3x Grauwertbild Bild für Abbildung von Rot, Grün und Blau)
Was versteht man unter Beugung und in welchem Zusammenhang hängt sie mit der Blendenzahl?
Bei Beugung wird das Licht an der Eintrittsöffnung so gebeugt, dass einzelne Beugungswellen entstehen, die sich zu einer Wellenfront zusammensetzen. Somit trifft das Licht nicht als Punkt, sondern als Beugungsscheibchen auf den Sensor. Desto kleiner die Blendenöffnung (größer die Blendenzahl), desto mehr Beugung tritt auf.
Von welchen Faktoren hängt die Schärfentiefe ab?
Blendenzahl (desto größer, desto besser)
Brennweite (desto kleiner, desto besser)
Entfernung (desto größer, desto besser)
Sensorgröße (desto kleiner, desto besser)
welche Morphologische Filter gibt es?
und was machen sie?
Minimum Filter (weiße bereiche geschrumpft)
Maximum Filter (weiße Bereiche wachsen)
Erosion (bildbereiche Schrumpfen)
Dilatation (Bildbereiche wachsen)
Filtermaske eines Sobel Filters
Filtermaske eines Prewitt Filters
(Kompassoperator) liefert Informationen über Kantenausrichtung
Canny Matlab Definition
The Canny method finds edges by looking for local maxima of
the gradient of I [Image]. The gradient is calculated using
the derivative of a Gaussian filter. The method uses two
thresholds, to detect strong and weak edges, and includes the
weak edges in the output only if they are connected to strong edges. This method is therefore less likely than the others
to be fooled by noise, and more likely to detect true weak
edges.
Zuletzt geändertvor 5 Monaten