Welche verschiedenen Beleuchtungsstrategien gibt es?
Was lässt sich über die Glühlampe als Beleuchtungstechnik sagen?
Lebensdauer ca. 1000h
Intensität nicht konstant
15 bis 20 lm/W
Hoher Infrarot (Wärme) im Spektrum
->Nachteil, da sehr ineffizient (nur 9% der Energieabgabe im sichtbaren Bereich)
Kontinuierliches Spektrum (ggf. mit elementspezifischen Peaks)
hohe Einsatztemperaturen möglich (Backofen-Lampen)
Was lässt sich über die LED als Beleuchtungstechnik sagen?
LED - Light Emitting Diode
Aufbau wie bei pn-Halbleiterdiode jedoch als direkter Halbleiter
Bei Spannung in Durchlassrichtung: Elektronen wandern von n-dotierten Seite zum pn-Übergang und “fallen” in das energetisch niedrigere Valenzband (Rekombination)
Lichtfarbe entspricht frei werdenen Energie und sit vom Halbleiter und Dotierung abhängig
LED sind nahezu monochrom (einfarbig)
kein kontinuierliches Spektrum (punktuelles Spektrum: strahlt nur bestimmte Wellenlängen des elektromagn. Spektrums ab)
Lebensdauer ca. 30.000 bis 100.000 Stunden
Lichstrom ist (in etwa) proportional zum Betriebsstrom, abhängig von der Temperatur
Was lässt sich über die Laserdiode als Beleuchtungstechnik sagen?
LASER = light amplification by stimulated emission of radiation
ähnlich wie eine LED: Lichtemission am pn-Übergang beim Anlegen eines Stromes
wichtiger Unterschied:
Emittiertes “LED”-Licht wird in einen optischen Resonator geleitet, wo sich eine stehende Welle ausbreitet
Aufrechterhaltung des Prozesses durch ständige Energiezufuhr
Welche Interferenzeffekte können bei Laser-Licht auftreten?
Laser-Speckle:
Laser-Licht hat hohe Kohärenz(länge)
-> Maximale Weglängedifferenz den zwei Lichtstrahlen aus derselben Quelle haben dürfen um noch zu interferieren
Beleuchtet man mit einem Laser eine matte Oberfläche, so erscheint das Blatt nicht gleichmäßig beleuchtet, sondern fleckig, “granuliert” (Speckle):
Aufgrund der rauen Oberfläche kommt es zu Interferenzen im Auge / Kamera
BILD FEHLT
Welche unterschiedlichen Beleuchtungsanordnungen gibt es?
Welche LED-Lichtquellen in Modulbauweise gibt es?
Was ist die Koaxiale Beleuchtung?
senkrechte, homogene Ausleuchtung spiegelnder, planarer Oberflächen
homogene Intensität
Welche weiteren speziellen Beleuchtungsarten gibt es?
Welche verschiedenen Optischen Filter gibt es?
IR-Sperrfilter (auf fast jedem Sensor)
Infrarot-Sperrfilter: blockiert einen großen Teil des Infrarotlichtbereichs, während es das sichtbare Licht durchlässt, was zu klareren und genaueren Farbbildern führt für z.B. Landschaftaufnahmen
Farbfilter
Notch-Filter (Bandsperre, filtert bestimmte Frequenzen heraus)
Bandpass-Filter (Bestimmte Frequenzen durchlassen
-> Rest unterdrücken
Unschärfe-Filter
Tiefpass (z.B. für Portraits)
Graufilter
Zur Reduktion bzw. Angleichung der Helligkeit
Centerfilter (gegen cos^4-Vignettierung)
Polarisationsfilter
Reflexion vermeiden
Was ist Polarisation und wozu dient der Polarisationsfilter?
Polarisation
Schwingungsrichtung der Transversalwelle
lassen Schwingung des Lichts in einer bestimmten Richtung durch und blockieren Schwingungen in anderer Richtung
z.B. gegen Spiegelungen an nichtmetallischen Oberflächen (Glas, Plastik, Wasser etc.)
bei metallischen Oberflächen: Kombination mit Kunstlicht (oft zu teuer)
Welche unterschiedlichen Bildsensoren gibt es?
Bildsensoren bestehen aus einer räumlich definierten Anordnung photosensitiver Elemente.
Punktsensoren
Lichtschranken
Synchronisation (zeitlich)
Scanning-Anwendungen
Zeilensensoren
Spektroskopie
Inspektion von Endlos-Materialien
Flachbett-Scanner / Kopierer
Laser-Entfernungsmessung
Flächensensoren
Werkstück-Inspektion
Fotodokumentation
QR-Code-Erfassung
großes Datenvolumen
Wie sind CMOS-Sensoren aufgebaut?
Matrix aus lichtempfindlichen Pixeln
Funktionsweise:
Mittels “Reset” die Sperrschichtkapazität der Photodiode aufladen
Belichtung: Durch Photostrom entlädt die Sperrschicht
Auslesen der Restspannung per ADC
Jeder Pixel in einem CMOS-Sensor hat einen eigenen Photodetektor und Verstärker, was es vermöglicht, dass die Signalverarbeitung und die Datenerfassung parallel stattfinden können.
Bei der Aufnahme eines Bildes wird Licht von einer Szene auf den Photodetektor in jedem Pixel fokussiert. Dieses Licht erzeugt Ladungsträger (Elektronen und Löcher), die dann vom Photodetektor erfasst und von dem dazugehörigen Verstärker verstärkt werden. Die resultierenden Signale werden dann digitalisiert und weiterverarbeitet, um ein Bild zu erzeugen.
Hardware-Binning (Zusammenfassen von NxM Nachbarpixeln)
Oft: höhere Bildrate bei reduzierter Auflösung
Neigung zu Blooming (Übersprechen auf Nachbarn)
i.A. hohes Rauschniveau bei wenig Licht
teilweise Mikrolinsen auf Chip (teuer)
Was ist der Unterschied zwischen Intensitäts- und Ortsauflösung?
Intensitätsauflösung
vertikale Auflösung
Farbtiefe
Auflösung des Helligkeits/Farbbereichs
Ortsauflösung
Bildauflösung
Was bedeutet Aliasing?
Nyquist-Shannon Abtast Theorem:
Abtastfrequenz sollte min. doppelt so hoch sein wie die größte im Signal enthaltene Frequenz um eine verlustfreie Signalkonstruktion zu ermöglichen
bei Unterabtastung entstehen Aliasing-Artefakte (“neue” Strukturen
gilt für rümliche und zeitliche Rekonstruktion
Multidimensional
Wenn unerwünscht:
Vorfilterung (Defokussierung, Filterplatte), “analoger Tiefpass”
Digitale Bildverarbeitung (Downsampling), “digitaler Tiefpass”
Was ist Rolling Shutter?
Unterschied zu Global Shutter
Rolling Shutter:
Bild wird nicht im Ganzen, sondern Zeile für Zeile erfasst
scannt z.B. von oben nach unten
oberer Bildbereich wird früher erfasst als der untere
Global Shutter:
scharfe Bilder von sich schnell bewegenden Objekten, da alle Pixel gleichzeitig belichtet werden
Welche Farbräume gibt es beispielsweise?
Farbraum: Polygonhafte (möglichst große) Annäherung and die CIE Normfarbtafel durch additive/subtraktive Überlagerung von Elementarfarben
CIE Normfarbtafel: repräsentiert alle vom Menschen wahrnehmbaren und differenzierbaren Farben/Farbreize
Beispiele für Farbräume:
RGB (Rot-Grün-Blau, additiv)
CYMK (Cyan-Yellow-Magenta-Key(Schwarz), subtraktiv)
HSV (Hue-Saturation-Value, Farbwert-Sättigung-Helligkeit) -> in Polarkoordinaten
Was ist ein Bayer-Mosaik?
Filter-Array, das in den meisten digitalen Farbfotokameras verwendet wird
teilt den sensorischen Bereich jeder 4er Pixelgruppe in drei Farben auf: 2xgrün, rot und blau. Dies ist notwendig, da der menschliche Augensinn empfindlicher für Grün ist als für die anderen Farben
Durch die Verwendung des Bayer-Mosaikes kann die Kamera mehr Helligkeitsinformationen aufnehmen und somit ein besseres Farbbild erzeugen
Aber: Farbartefakte an starken Kanten (Intensitätssprüngen) möglich
Was ist ein 3CCD-Sensor und welche Vor- und Nachteile gibt es?
Konzept für Farbkamera
Lichtaufteilung per dichromatischer Spiegel
Vorteile:
Volle Farbinformation pro Pixel, keine Kantenartefakte
Nachteile:
3 Sensoren
Mehr Bauraum
Teuer
Welche Vor- und Nachteile hat das Filterrad?
BILD AUFBAU FEHLT
1 Sensor notwendig
viele Farben und sehr enge Spektralbereiche möglich
Bewegliche Teile
teuer
zeitl. Versatz (->Artefakte bei dynamischen Szenen)
Wie ist ein Mehrschichtfarbsensor aufgebaut?
Wellenlängenabhängige Eindringtiefe von Licht in Silizium
Last changed2 years ago