Was ist Licht?
Elektromagnetische Strahlung, welche für das menschliche Auge sichtbar ist
—> Welle-Teilchen-Dualismus: sowohl Photonen = zählbare Teilchen (Helligkeit), als auch Wellenlängen/Frequenzen (Farbe)
Was ist der menschlich sichtbare Bereich des Lichts? Was liegt darunter/darüber?
Farbe wird durch Wellenlängen (Frequenzen) des Lichts bestimmt.
Sichtbarer Teil: zwischen 380 nm - 750 nm
< 380 nm = Ultraviolett, Röntgen-, Gammastrahlung
> 750 nm = Infrarot, Mikro-, Radiowellen
Was ist der Unterschied zwischen monochromatischem Licht und dem Licht, das wir normalerweise im Alltag sehen?
Monochromatisch = nur Licht einer Wellenlänge (z.B. Laser)
Im Alltag ist Licht meist aus verschiedenen Wellenlängen zusammengesetzt
Erklären Sie, warum die Glühbirne trotz 80W Ausgangsleistung ineffizient ist
1. Strahlungsleistung ist in allen Wellenängen angegeben (Fläche unter der Kurve) —> der für uns sichtbare Teil ist nur ein schmaler Streifen
2. Menschliches Auge ist für verschiedene Wellenlängen unterschiedlich empflindlich —> obwohl bei der Glühlampe die Rotanteile am größten sind, leuchtet sie für uns gelb-orange, da unsere Empfindlichkeit bei diesen Farben höher ist
Strahlungsleistung im sichtbaren Bereich verrechnet mit menschlicher Empfindlichkeit ergeben eine Leistung von nur 2,4 W
Was ist spektrale Reflektanz?
Wenn Licht auf Oberflächen fällt werden einige Wellenlängen mehr reflektiert als andere (der Rest wird absorbiert)
—> spektrale Reflektanz = beschreibt, welche Wellenlängen von einer Oberfläche reflektiert bzw. absorbiert werden
=Farbe einer Oberfläche/eines Objekts
Wovon ist die wahrgenommene Oberflächenfarbe abhängig?
Spektrum der Lichtquelle (Tageslicht, Glühbrine etc)
spektrale Reflektanz der Oberfläche
menschliche Farbwahrnehmung
Was ist Metamerismus?
Oberflächen, die für uns die gleiche Farbe zu haben scheinen, können unterschiedliche spektrale Reflektanz aufweisen (diese aus verschiedenen Wellenlängen zusammengesetzt sein)
—> kann zum Problem werden, wenn zwei Objekte unter einer Lichtquelle gleich aussehen, unter einer anderen jedoch unterschiedlich erscheinen (z.B. Autolack angleichen, Schminke bei Schauspieler*innen)
Wie verändert sich die wahrgenommene Helligkeit von Objekten bei verschiedenen Lichtquellen?
Wenn Lichtquelle die gleiche Farbe hat wie das Objekt, dann erscheint es heller
—> wird ein blaues Patch mit blauem Licht angestrahlt, so wirkt es heller. Wenn die Lichtquelle gelbes Licht ausstrahlt, wirkt das blaue Patch dagegen dunkler
Wie lässt sich das Auge mit einer Kamera vergleichen?
Iris + Pupille = Blende (Größe der Öffnung)
Linse = Objektiv
Netzhaut = Sensor/Bildwandler/Filmmaterial
Wie nimmt das menschliche Auge Licht wahr?
120 Mio Stäbchen für das Schwarzweiß- und Nachtsehen (scotopic)
8 Mio Zapfen für das Tagsehen in Farbe (photopic)
3 Typen (LMS)
1 Mio Ganglienzellen für die Weiterleitung
Nennen Sie die 3 Zapfentypen und deren farbliches Spektrum
L-Zapfen (long): für lange Wellenlängen zuständig = rote Farben
M-Zapfen (medium): für mittlere Wellenlängen zuständig = eher grüne Farben
S-Zapfen (short): für kurze Wellenlängen zuständig = blaue Farben
—> jeweils eigene Spektren an Wellenlängen, die sich überlappen: Man kann nie nur eine Zapfenart simulieren!
Beschreiben Sie den Aufabu der Licht-Experimente von Wright und Guild
Fragestellung: Kann man mit drei helligkeitsverstellbaren Spektralfarben jede beliebige Spektralfarbe mischen?
-> es wurden 3 Spektralfarben (=Primaries rot, grün, blau) zum Matchen bestimmt und durch eine Wand getrennt eine weitere Lampe aufgestellt
-> die einzelne Lampe wurde in 5 nm- Schritten verstellt und versucht, die jeweilige Farbe mit den 3 Primaries auf der anderen Seite zu matchen
Ergebnis ist die RGB Color Matching/Tristimulus-Funktion oder Normalbeobachter
Was ist die RGB Color Matching Funktion und wie wird sie noch genannt?
Lassen sich alle Spektralfarben mit 3 Primaries mischen?
= Tristimulus-Funktionen
= Normalbeobachter
—> Ergebnis der Experimente von Wright & Guild
man sieht für manche gemischten Farben die Mischung negativer Rotwerte (und z.T auch der grünen/blauen Werte)
Um alle Farben mischen zu können, müssen alle drei Primary-Lampen auch einmal auf die andere Seite zu der zu matchenden Lampe gestellt werden (“negative Anteile”)
Antwort auf Fragestellung lautet nein, keine 3 Primaries können alle Spektralfarben mischen
Was ist ein Farbraum?
Was ist die Besonderheit am Querschnitt dieses Farbraums?
Alle Farben, die man mit den Primaries RGB mischen kann, werden in ein Koordinatensystem mit drei Achsen eingetragen —> man erhält einen Würfel, in dem nicht nur alle mischbaren Spektralfarben sichtbar sind, sondern auch Farben, die nur mischbar sind, sich aber nicht auf dem Spektrum befinden (z.B. pink).
—> verbindet man die 3 Primaries in einem Dreiecks-Querschnitt, so summieren sich RGB darin zu 1 -> die Helligkeit entfällt, es sind nur die Farbproportionen visualisiert
Wie muss das RGB-Farbdreieck erweitert werden, um die standardisierte CIE-Normfarbtafel zu bekommen?
Wie wird diese noch genannt?
Die R-Achse muss ins Negative verlängert werden —> so werden auch fmenschlich sichtbare Farben aus den Tristimulus-Funktionen miteinbezogen, nie nicht mit Primaries mischbar sind
Durch eine Matrix-Multiplikation bringt man die negativen Werte der R-Achse in den positiven Bereich = CIE Normfarbtafel
Aufgrund der Form auch Hufeisen genannt
Was ist ein Gamut?
Ein Gamut ist der Körper im Farbraum (meist Dreieck), der mit einem Gerät durch innere Farbmischung nachgestellt werden kann. —> 3 beliebige Primaries bilden einen Gamut
= Farbpalette für die Menge aller Farben, die ein Gerät (Monitor, Scanner, Kamera etc.) darstellen, wiedergeben oder aufzeichnen kann.
Geräte und Normen standardisieren verschiedene Gamuts/Farbräume
Wie definiert man Farbtemperatur?
Maß zur quantitativen Beschreibung des Farbeindrucks von Lichtquellen.
-> Als Referenz dient dabei das Spektrum eines idealen thermischen Strahlers (Black Body, reflektiert kein Licht, absorbiert vollständig). Mit steigender Temperatur wechselt dessen Farbeindruck von Rot (oranges Glühen bis unter 3300K) über weiß bis ins Hellblau (emmittieren blauen Lichts ca 7000 bis 20000K).
-> Für reale thermische Lichtquellen (Flamme, Glühbirne, Sonne) gilt das näherungsweise
Was ist die Black Body Curve?
Die von einem schwarzen Strahler emittierten Weißfarben können auf dem Hufeisen gefunden werden und ergeben die Black Body Curve —> Weißtöne verschiedener Farbtemperaturen
zB. unter 3.300 Kelvin (Warmweiß), 3.300 bis 5.300 Kelvin (Neutralweiß) bis über 5.300 Kelvin (Tageslichtweiß)
Was ist der Unterschied zwischen physikalischer und menschlicher Farbtemperatur?
Physikalisch: Je mehr man ein Objekt erhitzt, desto blauer leuchtet es → Achtung: nicht intuitiv!
Menschliche Empfindung ist umgekehrt: gelbe bis rote Farbtöne werden als warme Farbtemperaturen empfunden (Feuer), während blaue Farbtöne als kühler empfunden werden (Eis, Schnee)
—> eine “kühlere” Farbe entspricht einer höheren Farbtemperatur
Definiere die Begriffe Lichtstrom, Lichtstärke, Beleuchtungsstärke und Leuchtdichte
Lichtstrom Φv = Wieviel sichtbares Licht wird von einer Lichtquelle insgesamt ausgestrahlt? Einheit: Lumen [lm]
Lichtstärke Iv = Wieviel sichtbares Licht wird von einer Lichtquelle pro Raumwinkel ausgestrahlt?
= Lichtstrom / Raumwinkel. Einheit: Candela [cd]
Beleuchtungsstärke Ev = Wieviel sichtbares Licht kommt auf einer beleuchteten Fläche an?
= Lichtstrom / Fläche, Einheit: Lux [lx]
Leuchtdichte Lv = Wieviel sichtbares Licht wird von einer Fläche reflektiert / emittiert?
= Lichtstärke / Fläche, Einheit: Nits (cd/m2)
Wie werden Helligkeitsveränderungen vom Menschen wahrgenommen?
Was gilt für Helligkeitswahrnehmung im Dunkeln?
Die menschliche Helligkeitswahrnehmung ist proportional, bzw. logarithmisch.
—> um eine gleichmäßig wirkende Veränderung zu erzielen, muss die Lichtmenge von Schritt zu Schritt verdoppelt werden.
= Weber-Fechner-Gesetz
Kleine Veränderungen im Dunkeln sind sehr sichtbar -> je heller der Stimulus, desto extremer muss die Veränderung sein, um wahrgenommen zu werden
= Stevens'sche Potenzfunktion
Wie werden Helligkeitsvergleiche gemessen?
Die Einheit für die Verdopplung/Halbierung einer Helligkeit nennt man Blendenstufe (F-Stop / Stop).
-> Helligkeit wird in Lumen/Candela/Nits/Lux gemessen, Helligkeitsvergleiche werden in Blendenstufen gemessen.
Was ist eine Blendenstufe und warum benutzt man oft diese Einheit?
-> entspricht der logarithmischen Warhnehmung des Menschen
Was ist der Dynamik- oder Kontrastumfang?
= beschreibt das Verhältnis vom dunkelsten Punkt zum hellsten Punkt einer Szene.
Er kann als Verhältnis (z.B. 1:1000) oder in Blendenstufen angegeben werden.
Beispiel:
Dunkelster Punkt = 0.5 Nits
Hellster Punkt = 6.000 Nits
Dynamikumfang = Lmin : Lmax = 1:12.000 = log2(12.000) = 13,5 Blendenstufen
1 → 2 → 4 → 8 → 16 → 32 → 64 → 128 → 256 → 512 → 1.024 → 2.048 → 4.096 → 8.192 → 16.384
Warum ist Blitz nur für Fotografie geeignet? Welches Licht wird eher bei Film/TV eingesetzt?
Macht sehr kurz sehr hell und muss danach laden
—> Dauerlicht ermöglicht gleichmäßige Helligkeit über lange Zeit und ist somit für Bewegtbild (TV/Film) einsetzbar
Was sind die Hauptbestandteile einer Spiegelreflexkamera?
2 Bestandteile:
Kamera (Body)
Objektiv (Optik, Linse) -> Objektiv bricht einfallendes Licht so, dass es korrekt und scharf in der Kamera ankommt
Im Objektiv ist auch die Blende verbaut, die wie die Iris im Auge
den Lichteinfall kontrolliert.
Was ist die Rolle des Umlenkspiegels in einer Spiegelreflexkamera? Welche Aspekte der Bildgestaltung werden durch den Spiegel primär beeinflusst und wieso?
Das einfallende Licht trifft zunächst auf den Umlenkspiegel, um im Sucher zu landen → Über den Sucher sieht, bzw. “sucht” man das Motiv. Beim Auslösen wird der Spiegel hochgeklappt, das Licht trifft auf den Filmstreifen und belichtet ihn. Wenn die eingestellte Verschlusszeit / Belichtungszeit vorbei ist, klappt der Spiegel wieder runter.
—> Verschlusszeit beeinflusst Helligkeit und Motion Blur (lange Belichtungszeit → mehr Motion Blur und mehr Helligkeit)
- Spiegel blockiert Sensor/Film und verhindert dauerhafte Belichtung
Was versteht man unter dem Bulb Mode?
Über einen Bulb Mode kann der Filmstreifen so lange belichtet werden, wie der Auslöser gehalten wird. Je länger die Verschlusszeit, desto länger fällt Licht auf den Film, desto heller wird das Bild.
Achtung: Wenn sich während der Belichtung etwas im Motiv bewegt, entsteht Motion Blur.
Was ist ein Objekt-, und was ein Bildpunkt in der Fotografie?
Von einem Objektpunkt reflektierte, ins Objektiv eintreffende Strahlen werden über die Hauptebene (vereinfacht eine, Objektive haben viele Glasschichten) zu einem Bildpunkt gebrochen. So werden alle Objektpunkte durch die Optik auf die Bildebene fokussiert.
Was ist der Brennpunkt?
Strahlen, die parallel zueinander und senkrecht zur Hauptebene in die Optik eintreten kreuzen sich in einem speziellen Punkt hinter der Hauptebene: dem Brennpunkt
Was ist die Brennweite eines Objektivs und welche Aspekte der Bildgestaltung werden dadurch beeinflusst?
Brennweite = Abstand zwischen Hauptebene und Brennpunkt.
—> beeinflussen Ausschnitt und Raumwahrnehmung:
Weiter entfernte Objekte, die kleiner erscheinen, werden bei gleichbleibender Brennweite auch kleiner auf der Bildebene abgebildet. Wenn man die Gegenstandsweite jedoch beibehält, aber dafür die Brennweite verändert, so wird das Objekt größer/kleiner auf die Bildebene projiziert, man verändert also den Bildausschnitt. Je länger die Brennweite, desto näher/größer erscheinen weit entfernte Objekte in Relation zu näheren Objekten.
Was ist die ISO im Zusammenhang mit analoger Fotografie/Kinematografie? Was ändert sich beim digitalen Pendant?
ISO gibt die Lichtempfindlichkeit an. Höhere ISO-Zahlen werden mit größeren Silberkristallen erreicht → mehr Korn / Grain
Bei digitalem ISO ändert sich Sensorempfindlichkeit.
Was ist ein ND-Filter?
Ein ND-Filter (Neutral Density) kann Licht wegnehmen, bevor es in die Kamera gelangt. Dabei wird Licht aller Wellenlängen möglichst gleichmäßig transmittiert, dh. ohne die Farbe zu verändern.
ND-Filter sind in diversen Stufen erhältlich. Es gibt auch Variable ND-Filter (zwei gegeneinander verdrehbare Polfilter)
Was ist der Sinn der Blende eines Objektivs? Was ist eine Blendenzahl/eine Blendenstufe?
Die Blende (Iris, Aperture) kontrolliert mit verstellbaren Lamellen die Größe der Öffnung, durch die das Licht in der Optik passieren muss. Je größer die Öffnung, desto mehr Licht kommt durch, desto heller wird das Bild.
Blendenzahl → es wird schrittweise immer die Hälfte der vorherigen Lichtmenge durchgelassen. Je höher die Blendenzahl, desto weniger Licht kommt durch.
-> die Schritte werden in Blendenstufen angegeben
ACHTUNG:
Blende ≠ Blendenzahl ≠ Blendenstufe
Wie wird die Blendenzahl berechnet?
Diese Ganzen Blendenzahlen werden mit jeder Blendenstufe um einen Faktor von √2 größer. Berechnet wird die Blendenzahl jedoch aus dem Durchmesser der Blendenöffnung und der Brennweite.
-> Blendenzahl-Schreibweise oft 1:2,8 oder f/2,8
Was ist die technische Besonderheit eines Zoom-Objektivs?
Keine feste Brennweite, kann (meist Stufenlos) angepasst werden.
(oft ändert sich dabei auch beim Reinzoomen die Blendenzahl (→ bei billigen Objektiven)
Da die Blendenzahl auch von der Brennweite abhängt, muss bei Zoom-Objektiven der Durchmesser der Blendenöffnung parallel zur Brennweite verändert werden, um eine konstante Minimalblendenzahl für alle Brennweiten zu ermöglichen.
Wie nennt man große oder kleine Tiefenschärfe?
Große Tiefenschärfe = Deep Focus
Kleine Tiefenschärfe = Shallow Focus
Nennen Sie einige Qualitätskriterien für Objektive.
Befriedigende Schärfeleistung (Detailwiedergabe)
Großes Kontrastübertragungsvermögen (MTF)
Gutes Streulichtverhalten (Oberflächenvergütung der Linsen)
Hohe Lichtstärke (kleine Blenden-Zahl)
Geringe Naheinstellgrenze
Großer Brennweitenbereich, bei Zoom-Objektiven
Geringe geometrische Verzeichnungen (perspektivisch richtige Abbildung)
Möglichst geringe Abbildungsfehler (Chromatische oder Sphärische Aberrationen, Randunschärfen...)
Gleichmäßige Ausleuchtung der Bildfläche (kein Randabfall/Vignettierung)
Bokeh, Wiedergabe der unscharfen Bereiche (Lamellen der Irisblende)
Was ist die Naheinstellgrenze und was ist das Gegenteil davon?
= Kleinste Distanz, auf die ein Objektiv fokussiert werden kann.
Wenn man hingegen in die andere Richtung auf Anschlag fokussiert, sodass sehr weit entfernte (i.d.R. >20m) Objekte scharf sind, sagt man, dass der Fokus “auf Unendlich” gestellt ist.
Was ist die Schärfeebene und wie wird diese eingestellt? Was passiert, wenn ein Objekt vor/hinter der Schärfeebene liegt?
Durch das Drehen am Fokusring des Objektivs kann eingestellt werden, wie weit die Schärfeebene von der Kamera entfernt ist.
Wenn das Objekt im Fokus ist, also in der Schärfeebene liegt, wird jeder Punkt des Objekts auf je einen Bildpunkt fokussiert → Das Objekt ist scharf.
Objekt vor der Schärfeebene: Lichtstrahlen würden sich erst hinter der Bildebene treffen → Punkt wird gestreut → Unschärfe
Objekt hinter der Schärbeebene: Lichtstrahlen kreuzen sich bereits vor der Bildebene -> Punkt wird gestreut -> Unschärfe
Welche Optionen hat man als Fotograf:in oder Kameramann/-frau, um die Schärfentiefe zu beeinflussen?
Blende/Brennweite verändern
-> Je größer die Blendenzahl, desto größer die Schärfentiefe, desto mehr Objekte vor/hinter der Schärfeebene sind scharf.
-> Je größer die Brennweite, desto weniger Tiefenschärfe.
Was ist das Auflagemaß einer Kamera?
Die Optik gibt das Auflagemaß vor, also die Distanz, die das Objektivgewinde, bzw. das Bajonett, von der Bildebene haben muss, damit es korrekt fokussiert werden kann. Man kann nicht jedes Objektiv an jede Kamera anschließen! Entsprechend werden Optiken und Kameras für konkrete Auflagemaße gebaut.
Wenn Objektiv und Kamera den gleichen Anschluss haben, sind sie definitiv miteinander kompatibel.
Man kann mit Adaptern das Auflagemaß verlängern, jedoch nicht kürzen.
Sie drehen einen Film und benutzen durchgängig einen Verschlusswinkel von 180°. Beim nächsten Take wollen Sie das gleiche Motiv filmen, jedoch die Tiefenschärfe vergrößern, ohne die Kamera zu bewegen.
Welche zwei Einstellungen an Kamera/Objektiv müssen Sie vornehmen und warum?
Geringere Brennweite
höhere Blendenzahl
-> dadurch wird die Tiefenschärfe größer, aber das Bild dunkler (zB von 4 auf 8), ISO erhöhen (in dem Beispiel von 100 auf 400), um die Helligkeit wieder auszugleichen
Welche Einstellungen in einer Kamera gibt es und welche Aspekte der Bildgestaltung beeinflussen diese?
Verschlusszeit -> Helligkeit, Motion Blur
Brennweite -> Bildausschnitt, Tiefenschärfe, Raumwahrnehmung
Blende -> Helligkeit, Tiefenschärfe
ISO -> Helligkeit, Grain
Filmcharakteristik -> Kontrast, Weißabgleich (WB), Farben
Beschreiben Sie das Exposure Triangle anhand einer beschrifteten Skizze.
Die Bildhelligkeit hängt von Verschlusszeit (Shutter Speed), Blende (Aperture) und ISO ab. Man muss Kompromisse zwischen Motion Blur, Tiefenschärfe und Grain finden.
Warum werden Filme in 24 FPS gedreht und mit 48 FPS projiziert?
Kinoprojektoren mit klassischen Filmspulen geben beispielsweise 24fps-Material in 48Hz wieder. Aus 24 Einzelbildern werden so 48. Der Projektor zeigt nämlich jedes Bild zweimal, indem er es in der Projektion einmal für einen kurzen Moment verdeckt.
-> Flimmern und Ruckeln minimieren -> bei der Aufnahme wird schon ab 20-22 FPS kein Flickern mehr wahrgenommen, bei der Projektion ist dies jedoch helligkeitsabhängig, im Kino ist der Bereich bei 40-50 FPS
-> Aufnahme in 24 FPS durch einen Rotary Shutter (1 Hellphase/Bild), Wiedergabe in 48 FPS mit Butterfly Shutter (2 Hellphasen/Bild)
= Guter Kompromiss zwischen Bewegungsauflösung, Kosten und Ästhetik
Ein Umlenkspiegel wäre bei Filmkameras unpraktisch. Welche Lösung hat bei analogen und digitalen Filmkameras jeweils den Umlenkspiegel ersetzt?
Verspiegelte Umlaufblende
-> rotiert kontinuierlich und synchron zum intermittierenden Filmtransport
Rotary Shutter (Halbkreis 180°) = 1 Hellphase/Bild
Butterfly Shutter (2 “Viertel” diagonal) = 2 Hellphasen pro Einzelbild -> für Projektion von 2 Bildern statt 1 -> flüssiger
Das Licht fällt abwechselnd auf den Filmstreifen und auf eine Mattscheibe im Sucher → Man sieht nie die Frames, die man belichtet.
-> 24 FPS = 24 Hell- und 24 Dunkelphasen -> Belichtungszeit = 1/48 Sekunde
Was ist eine Sektorenblende bei analogen Filmkameras?
Standardwinkel der Umlaufblende liegt bei 180° = 1/48s
-> Sektorenblende kann die Größe des Hellsektors verkleinern = Verkürzung der Belichtungszeit pro Einzelbild
-> Halbierung des Winkels = Halbierung der Lichtmenge = 1 Blendenstufe
180° = 1/48s
172,8° = 1/50
90° = 1/96s
45° = 1/192s
-> Vergrößerung des Hellsektors nicht möglich, da sonst kein lichtdichter Filmtransport gewährleistet werden kann.
Was sind die Auswirkungen des Shutters im Bewegtfilm?
Helligkeit
Motion Blur
Schärfe der Einzelframes
Bewegungsverschmelzung
Flickern in der Projektion
Sie drehen einen Film und wollen den nächsten Shot in zwei verschiedenen Varianten aufnehmen: normal und in Zeitlupe mit Faktor 4.
Welche Framerates benutzen Sie für die beiden Varianten? Worauf müssen Sie zusätzlich achten, um problemlos zwischen den beiden Varianten hin- und herschneiden zu können?
Jeweils 1s Echtzeit:
12 FPS -> Zeitraffer (1:05) = 0,5s Wiedergabezeit
24 FPS -> Tonsynchron (1:1) = 1s
48 FPS -> Zeitlupe (1:2) = 2s
96 FPS -> Zeitlupe (1:4) = 4s
Wenn man die Framerate anpasst und beim wünschenswerten Verschlusswinkel von 180° bleibt, verändert die Belichtungszeit, die Bilder werden heller/dunkler.
-> man muss die Blende/ISO-Empfindlichkeit/Licht/ND-Filter nutzen, um die Belichtung konstant zu halten
Wie wird bei der Projektion von analogen Filmen erreicht, dass jeder Frame zweimal projiziert wird?
-> mit einem Butterfly Shutter = 2 Hellphasen pro Einzelbild im Vergleich zum Rotary Shutter mit nur einer Hellphase pro Bild
Wie erreicht man dass Bild und Ton bei der analogen Filmprojektion korrekt wiedergegeben werden?
- Für Bildwiedergabe muss der Filmtransport intermittierend sein
- Für Tonwiedergabe muss der Filmtransport kontinuierlich sein
-> Bremsrollen + Separate Transportrolle für Tonwiedergabe
-> Konstanter Bild-Ton-Versatz von 21 Frames
Was ist der Sinn einer Filmklappe?
= Synchronklappe
Bei Filmproduktionen werden Bild und Ton meistens mit getrennten Geräten aufgezeichnet.
-> Klappe ist Bezugspunkt (Synchronmarke), um später Bild und Ton im Schneideraum besser zu synchronisieren und die einzelnen Einstellungen eines Films eindeutig zu kennzeichnen.
-> Schließen der Klappe und Ton des Klappgeräusches werden aneinander angepasst
= Beschriftung der Klappe dient der Sammlung von Metadaten
Welche Filmformate gibt es?
- 2-, 3- oder 4-perf = Anzahl der Perforationslöcher pro Einzelbild
- Super- = ohne Platz für Lichttonspur
65mm / 70mm
-> Aufnahme auf 65mm, Umkopierung auf 70mm für Projektion (Platz für Lichtton)
-> 5 Perforationslöcher pro Bild, 24 FPS
-> Feineres Korn, geeignet für größere Leinwände -> IMAX (horizontal 15-perf)
-> Exotisch und teuer
35 mm (Standard)
Academy (1,37:1)
->4:3-Fernsehen wurde daraus abgeleitet
-> beim Stummfilm = 1,33:1
Amerkanisches Breitwandformat/Flat (1,85:1)
CinemaScope / Scope (2,39:1)
16mm/Super-16
-> Günstiger, eher für Dokumentationen, Werbung, Low-Budget, etc.
Beispiel: 3-perf Super-35 (25% ökonomischer als 4-perf)
Was bedeutet Super-35mm bei analogem Film?
= eine Modifikation des 35mm Standardformats, mit dem man eine größere Negativfläche belichten kann -> Nutzung der gesamten Filmfläche durch Entfernung der Sicherheitszone für die Tonspur auf dem Film
-> breiteres Format = Weitwinkelaufnahmen
-> reines Produktionsformat, wird nachträglich auf kinotaugliches Format zugeschnitten
Was ist eine anamorphotische Optik?
Anamorphotische Objektive sind elliptisch aufgebaut
-> Vertikal doppelte Brennweite als horizontal = Stauchung des Bildes um Faktor 2
-> durch anamorphotische Optiken auf 35mm-Film Erreichen des CinemaScope, Stauchung wird bei Projektion wieder entzerrt
Heute immer noch sehr beliebt für ihre Look-Eigenschaften:
-> ovales Bokeh
-> horizontale lens flare Streifen
Erläutern Sie die Videokette anhand einer beschrifteten Skizze.
Das von einer Bildquelle erzeugte Signal wird über einen Übertragungskanal an eine räumlich entfernte Senke vermittelt.
Beschreiben Sie die Funktionsweise eines Schwarz-Weiß-CRT-Bildschirms.
-> Brown’sche Röhre: Durch Auftreffen eines gebündelten Elektronenstrahls leuchtet der Bildschirm in Abhängigkeit von der Intensität unterschiedlich hell auf. Die Ablenkung des Elektronenstrahls im Zeilenraster (bis zu 15.750 Zeilen/s) erfolgt über magnetische Felder, die von Ablenkströmen in horizontalen und vertikalen Ablenkspulen erzeugt werden.
-> Spannungsverlauf innerhalb einer Zeile = unterschiedl. Helligkeiten -> keine Pixel!
-> Zeilensprungverfahren/Interlacing:
Warum werden in verschiedenen Regionen der Welt beim Fernsehen verschiedene Framerates benutzt? Nennen Sie Beispiele.
Verschiedene Netzfrequenzen
-> Europa: 25 Bilder pro Sekunde, weil 50 Hz Netzfrequenz
-> Amerika: 30 Bilder pro Sekunde, weil 60 Hz Netzfrequenz
Warum wurde das Zeilensprungverfahren/Interlacing erfunden und wie funktioniert es?
Wegen 50 Hz Netzfrequenz können 25 Bilder pro Sekunde erzeugt werden
-> 25 FPS reichen nicht aus, das Bild würde stark flimmern, brauchen eigentlich 50 FPS
-> Zeilensprungverfahren/Interlacing: Anstatt 25 ganze Frames zu übertragen, wird jeder Frame in je zwei Halbbilder/Fields aufgeteilt, die nacheinander übertragen werden.
-> Horizontale und vertikale Ablenkspannungen (beeinflussen die Magnetfelder, die zum Ablenken des Strahls verwendet werden)
Welche Effekte können beim Interlacing auftreten?
Moiree-Bildung an horizontalen Bildstrukturen -> Halbbilder zeigen bei bewegten Objekten verschiedene Bildanteile an
Treppenstufen-Effekte -> An diagonalen Linien und Kanten entstehen kleine “Treppenstufen”
50Hz-Großflächenflimmern -> Bei hellen Bildpartien, vor allem im äußeren Augenwinkel wahrnehmbar
Kantenflackern -> Dünne Linien, die nur eine Zeile breit sind, werden von beiden Halbbildern gezeigt und flackern
Was ist das BAS-/FBAS-Signal?
Unter dem BAS-Signal versteht man das komplette Fernsehsignal für die Schwarzweiß-Bildübertragung, das sich aus dem Bildsignal (B), dem Austastsignal (A) und dem Synchronisationssignal (S) zusammensetzt.
Bildsignal: Helligkeitswerte des Bildinhalts als Spannungswerte als Waveform-Darstellung zwischen 0 und 0,7V, (+ Gammavorentzerrung)
Austastsignal: Elektronenstrahl muss nach jeder Zeile und jedem (Halb)bild zurückgeführt werden, dazu wird er ausgetastet (ausgeblendet) -> kein Bildinhalt
Synchronsignal: Sorgt dafür, dass die Zeilen und Halbbilder am Empfänger synchron und rastergleich mit der Aufnahmeseite wiedergegeben werden (markante negative Spannungswerte werden in der Austastlücke übertragen)
Farbsignal (bei FBAS): Farbinformationen werden im selben Signal übertragen (durch spektrale Verkämmung)
Die beim Farbfernsehen verwendeten Signale Y, R, G, B (Leuchtdichtesignal und Farbwertkanäle) sind BA-Signale, die oft auch den S-Anteil enthalten und dann BAS-Signale sind. Der modulierte Farbträger ergab den weiteren Buchstaben F und das vollständige Farbbildsignal wurde als FBAS-Signal bezeichnet.
Wofür ist das Bildsignal des BAS-Signals zuständig?
Bildsignal: Die klassische Bildaufnahmeröhre liefert ein B-Signal -> wandelt optisches Bild in elektrische Signale (Spannung) um
-> Waveform-Darstellung (Standard): X-Achse = Bildbreite, Y-Achse = Spannungswerte
-> 0V = schwarz, 1V = weiß
-> Alle Zeilen des Bildes werden übereinander dargestellt / überlagert
-> Bei der Wiedergabe auf einem CRT-Bildschirm ist der Zusammenhang zwischen Signalspannung und Helligkeit nicht linear -> Gamma-Vorentzerrung, um eine lineare Gradation zu erhalten
Aus welchen Gründen wurde die Gammavorentzerrung ursprünglich erfunden?
Problem: Videokameras liefern Signale, die annähernd linear von der Helligkeit abhängen. CRT-Bildschirm kann den Zusammenhang zwischen Signalspannung (U) und Helligkeit (L) jedoch nicht linear wiedergeben, sondern eher als eine Potenzfunktion: Würde man diese unverändert zu einer Bildröhre schicken, wären die Bilder sehr dunkel und kontrastreich.
L = U^2,2 -> γ = 1/2,2 = 0,45
Lösung: Soll das Helligkeitssignal des Fersehers linear wahrgenommen werden, muss es daher mit dem inversen/reziproken des obigen Gammawerts (γ = 0,45) vorverzerrt werden, damit sich beide Nichtlinearitäten für den Betrachter am Ende wieder aufheben. = Gammavorentzerrung -> lineare “Über-Alles-Gradation”:
U = E^0,45
Wofür ist das Austastsignal des BAS-Signals zuständig?
Austastsignal
Der Elektronenstrahl eines CRT Fernsehers muss nach jeder Zeile (horizontal) und nach jedem Bild (vertikal) zurückgeführt werden
-> Dabei wird der Strahl ausgeblendet = ausgetastet -> Rücklaufzeiten notwendig.
Horizontal wird das Bildsignal nach aktiver Zeilendauer von 52µs für jeweils 12 µs ausgetastet
Für den Strahlrücksprung nach Beendigung eines Halbbildes wird jeweils eine Vertikalaustastlücke von 1,6 ms reserviert, d.h. für die Dauer von 25 Zeilen pro Halbbild ist der Elektronenstrahl ausgeschaltet.
625 Zeilen — (2 x 25 Zeilen) = 575 Zeilen werden aktiv genutzt
Wofür ist das Synchronsignal des BAS-Signals zuständig?
Damit die Zeilen und Halbbilder am Empfänger synchron und rastergleich mit der Aufnahmeseite wiedergegeben werden, muss ein Synchronsignal übertragen werden.
-> Übertragung kurzer Synchronimpulse unter dem Austastwert: bei -0,3V, also “schwärzer als schwarz”. Diese Impulse werden in die Austastlücke positioniert:
H-Synchronimpuls: Die horizontale Austastlücke von 12 μs wird komplett zum synchronisieren benutzt -> H-Impuls liegt zwischen der vorderen und hinteren Schwarzschulter (front/back torch), die im 625-Zeilensystem jeweils 1,5 μs und 5,8 μs dauern, während der Impuls selbst die Dauer von 4,7 μs hat → Bi-Level-Sync
V-Synchronimpuls: Die vertikale Austastlücke von 1,6 ms wird nicht komplett zum Synchronisieren benutzt → nur 7,5 der 25 ausgetasteten Zeilen -> Der V-Synchronimpuls dauert 2,5 Zeilen, wird dabei aber 2 mal pro Zeile für 4,7 μs unterbrochen → Hauptimpulse. Davor und danach kommen jeweils 5 Vor-/Nachtrabanten mit 2,35 μs im Halbzeilenabstand
Welcher Typ Kabel wird für die Videoübertragung innerhalb eines Fernsehstudios überwiegend verwendet?
Für professionellen Gebrauch im Studio: Koaxial-Kabel
-> BNC-Anschluss und 75 Ohm Widerstand
-> Geschwindigkeit = 2 × 108 m/s
Für Heimgeräte: Cinch-/RCA-Kabel oder Scart-Kabel
Was ist der Sinn eines Strahlenteilerprismas?
Ein Strahlteiler ist ein optisches Bauelement, das einen einzelnen Lichtstrahl in zwei Teilstrahlen trennt -> dient der Farbaufteilung im Aufnahmegerät (Videokamera)
Was ist die Funktion eines CCD-Sensors?
Lichtempfindliches Bauteil eines Bildwandlers -> Zeilen werden in “Pixel” eingeteilt
-> Während der Belichtungszeit einfallende Photonen werden von jedem “Pixel” zwischengespeichert
-> Zeilen werden einzeln ausgelesen und in ein analoges Signal umgewandelt (Photonen werden “gezählt”)
-> Die anderen Zeilen rücken immer wieder auf und werden ausgelesen
Vorteile gegenüber Röhrenbildwandler:
→ “Pixel”/Zeilen werden gleichzeitig belichtet
→ kompaktere Bauweise
Wie wird farbiges Bewegtbild analog am qualitativ hochwertigsten übertragen?
RGB-Signal: Man kann alle drei Signale einzeln übertragen (3 Kanäle/Kabel)
-> Bild- und Austastanteile des BAS-Signals werden 1-zu-1 übernommen
-> drei einzelne Elektronenstrahlen für die drei Signale
Verschiedene Arten von Leuchtstoff für Rot, Grün und Blau
→ Leuchtpunkte in Farbtripeln: Lochmaske sorgt dafür, dass die richtigen Strahlen den richtigen Leuchtstoff treffen. Die Leuchtstoffe müssen natürlich genormt sein.
-> Synchronsignal entweder in allen drei Signalen, nur im Grünsignal oder separat als viertes Signal
-> es wird keine Bandbreite gespart => höchste Qualität
Was war den Erfindern von Farbfernsehen besonders wichtig im Hinblick auf die Gestaltung der FBAS-Signalform?
Anforderungen an das Farbsignal:
-> Kompatibilität mit Schwarz-Weiß-Fernsehern
-> Übertragung der Farbinformationen im gleichen Kanal ohne zusätzliche Bandbreite
Notwendige Schritte:
Konvertierung von RGB in YUV (1 Helligkeitssignal + 2 Farbdifferenzsignale)
Konvertierung von YUV in Y/C (1 Helligkeitssignal + 1 Chromaticity-Signal)
Konvertierung von Y/C in FBAS (1 Farb-Bild-Austast-Synchronsignal)
Was ist ein Komponentensignal und was ist der Sinn davon?
Matrizierung des RGB-Signals in ein Helligkeits- und zwei Farbdifferenzsignale -> über Komponentenmatrix
-> Helligkeit Y = 0,299 R + 0,587 G + 0,114 B
-> Farbdifferenz 1 = B - Y
-> Farbdifferenz 2 = R - Y
Damit die Farbdifferenzsignal nicht übersteuern und nie mehr als 0,7V Spannung aufweisen, wird ihr Pegel reduziert:
-> PR = 0,713 (R - Y); PB = 0,564 (B - Y)
=> Y PR PB Komponentensignal, das Helligkeits-/Luminanz-Information Y sowie die zwei Farbdifferenz-/Chrominanz-Informationen Pb und Pr getrennt überträgt
Für das angestrebte Ziel von einem einkanaligen Farbsignal zu erreichen, wird zunächst das YUV-Komponentensignal geschaffen. -> funktioniert genauso wie das YPRPB-Signal, aber die Farbdifferenzkomponenten sind anders gestaucht.
Wie entsteht aus dem Komponentensignal das FBAS-Signal?
Farbdifferenzkomponenten U und V des YUV-Signals werden zu einem Chrominanzsignal C zusammengefasst.
-> auf eine Trägerfrequenz werden U und V via Quadraturamplitudenmodulation (QAM) moduliert:
-> U steuert dabei die Amplitude und V die Phasenverschiebung der Trägerfrequenz
-> Helligkeit Y & Chrominanz C => Y/C-Signal
Die Y- und C-Signale werden in der spektralen Domäne ineinander verkämmt, um Y und C gleichzeitig in einem Kanal übertragen zu können!
=> Composite-Signal bzw. FBAS-Signal (Farbe, Bild, Austastung, Synchronisation)
Was ist der Unterschied zwischen einem Komponentensignal, einem Y/C-Signal und einem Composite-Signal? Wie beeinflusst die Signalform die Signalqualität?
RGB = 3 Farbsignale -> 3-4 Kanäle für Übertragung notwendig
YPRPB / YUV = 1 Helligkeitssignal + 2 Farbdifferenzsignale -> 3 Kanäle
Y/C = 1 Helligkeitssignal + 1 Chromaticity-Signal -> 2 Kanäle
Composite/FBAS = 1 Farb-Bild-Austast-Synchronsignal -> 1 Kanal
Signalqualität wird dabei zunehmend geringer!
Die Signalqualität von Composite Video bzw. FBAS ist relativ schlecht. Welche Alternativen gibt es für die Übertragung?
S-Video
Man kann das Y/C-Signal direkt auf zwei Kanälen übertragen -> spezielle S-Video-Stecker (je eine Ader für Y und C). Wurde vor allem in semiprofessionellen Umgebungen und hochwertigen Heimsystemen verwendet.
Component Video
-> Übertragung der drei Komponenten-Videosignalen Y, PB und PR über drei Kanäle
Zeichnen Sie den Waveform-Verlauf für das Testbild:
In einem Bild: Treppe stufenweise runter (weiß zu schwarz), Treppe stufenweise hoch (weiß zu schwarz), eine lineare Linie für den flüssigen Verlauf
Wie kann ein Farbsignal grafisch dargestellt und beurteilt werden?
Waveform-Monitor
Zeigt die Pegel der einzelnen Signale (R, G, B, Y) an.
Vektorskop
Zeigt die Farbkomponenten zweidimensional an.
-> Praktisch, um Kamera- und Sendebildfarben zu beurteilen
Welche Entdeckung von Jean Joseph Fourier ist für audiovisuelle Technik von höchster Relevanz? Was ist Fourier-Analyse?
Jean Joseph Fourier hat entdeckt, dass jegliche Wellen aus einer Menge Elementarwellen (z.B. Sinus-Schwingungen) bestehen.
Fourier-Analyse = Welle in ihre Elementarwellen aufteilen → Spektrale Darstellung
Fourier-Synthese = Aus Elementarwellen neue Wellen erstellen
-> Zeitliche Darstellung vs Spektrale Darstellung vs Gemischte Darstellung
-> nicht nur Musik, sondern jegliche Geräusche/jegliche Wellen, z.B. Stimmen, das Knistern einer Plastiktüte, Baulärm, Meerwellen, aber auch visuelle Information und Bewegung
→ Jede Helligkeitswelle besteht ebenfalls aus Elementarwellen, die man mit Hilfe der Fourier-Analyse bestimmen kann.
Tiefe Frequenzen sind für Flächen und Verläufe verantwortlich.
Hohe Frequenzen sind für feine Bildstrukturen und scharfe Kanten verantwortlich.
Merksatz:
“Man kann zwei beliebige Punkte in einem visuellen Feld mit einer Linie verbinden und die dazwischen liegenden Helligkeiten als Welle beschreiben. Diese Welle besteht (wie jede Welle) aus einer Menge sich überlagernder Elementarwellen, die man mit einer Fourier-Analyse bestimmen kann.”
Was ist das zugrundeliegende “Problem” der AD-Wandlung?
-> Eine analoge Welle hat unendlich viele Punkte, denn zwischen zwei beliebigen Punkten auf der Kurve gibt es unendlich viele weitere Punkte (analog/kontinuierlich)
-> Die Punkte der analogen Welle haben X- und Y-Koordinaten mit unendlich vielen Nachkommastellen.
Ein Computer hat einen endlichen Speicher = kann nur eine endliche Anzahl an Punkten und Vor-/Nachkommastellen speichern.
→ Für die digitale Speicherung und Verarbeitung von analogen Wellen müssen diskrete Werte vorliegen: Diskrete Anzahl an Punkten mit diskreten Koordinaten. Wieviele Werte braucht man?
Es macht Sinn, die Welle in regelmäßigen Abschnitten abzutasten = Quantisierung
Erklären Sie die einzelnen Schritte der optimalen AD-Wandlung.
Man will nicht zu selten abtasten → Informationsverlust
Man will nicht zu oft abtasten → Speicherplatzproblem
-> Wenn man eine Welle per Fourier-Analyse in Elementarwellen zerlegt und somit die Elementarwelle mit der höchsten Frequenz fmax bestimmt, so reicht eine optimale Abtastfrequenz von
fabtast > 2 × fmax (Abtasttheorem)
aus, um die Welle hinreichend zu rekonstruieren (z.B. 21.000 Hz Abtastrate bei einem 10.500 Hz fmax). -> analoges und digitales Signal sind äquivalent
-> endliche Anzahl an Samples = Pixel (picture elements): Tonsignale werden somit zeitdiskret, visuelle Felder werden somit ortsdiskret.
-> Noch können Samples/Pixel jedoch jeden beliebigen Wert annehmen (Nachkommastellen). Die Samples sind zwar orts-/zeitdiskret, aber noch nicht wertdiskret. Sie müssen quantisiert werden, um digital gespeichert/verarbeitet werden zu können.
Bittiefe: Quantisierung mit 1 Bit (2^1 = 2 mögliche Zustände), 2 Bit (2^2 = 4 mögliche Zustände), 3 Bit (2^3 = 8 mögliche Zustände), 4 Bit (2^4 = 16 mögliche Zustände) etc.
-> je höher die Bittiefe ist, desto feiner sind die Lautstärke-/Helligkeitsunterschiede. Gleichzeitig mit der Bittiefe steigt auch die Bitrate und folglich die Dateigröße / benötigte Übertragungsbandbreite → Kompromiss!
Ein Song ist 2:25 lang und liegt uns in 5.1-Surround-Sound, 48 kHz, 16 Bit vor.
Berechnen Sie die Dateigröße (ohne Kompression).
5.1 = 6 Kanäle, 2:25min = 145s
Bitrate = 48.000Hz × 16 Bit × 6 Kanäle = 4.608.000 Bit/s = 4,608 MBit/s
Dateigröße = 145s × 48.000 Hz × 16 Bit × 2 Kanäle = 668.160.000 Bit = 83.520.000 Byte = 83,52 MB
Ein Bild ist schwarz-weiß, 100x200 Pixel groß und mit 10 Bit quantisiert. Berechnen Sie die Dateigröße (ohne Kompression).
Dateigröße = 100 × 200 × 10 Bit = 200.000 Bit = 25.000 Byte = 25 KB
Erklären Sie die einzelnen Schritte der DA-Wandlung.
Mit Hilfe der AD-Wandlung (Abtastung + Quantisierung), bzw. Pulse-Code-Modulation (PCM), können wir analoge Wellen digitalisieren und speichern. Bei der Wiedergabe müssen diese digitalen Repräsentationen wieder einen analogen Zustand einnehmen:
-> die Membran eines Lautsprechers schwingt kontinuierlich.
-> das von einem Bildschirm emittierte Licht ist kontinuierlich.
Es muss eine DA-Wandlung (= Interpolation) stattfinden:
-> man braucht man einen Interpolationskern / Reconstruction Filter, der die Samples streut. Der ideale Interpolationskern ist der Sinus Cardinalis (sinc): sinc (x) = sin (πx)/πx
In der Realität kann man den Sinus Cardinalis jedoch nicht benutzen, da er in beide Richtungen unendlich weiterschwingt -> stattdessen nimmt man die kubische Interpolation, die zwar nicht ideal, aber gut genug funktioniert. Bei Bildern/Pixeln muss man entsprechend die bikubische Interpolation benutzen, um die Pixel in 2 Dimensionen zu streuen
-> der Interpolationskern wird an jedem Sample positioniert und den Samplewerten entsprechend skaliert
-> die Interpolationskerne werden aufaddiert, sodass eine rekonstruierte, analoge Welle entsteht, die alle Samplewerte enthält
-> man erhält aus endlichen Samples unendlich viele Informationen!
Wie wirkt sich mangelnde Bittiefe auf Bilder/Videos/Filme aus?
-> nicht genug diskrete Helligkeits-Abstufungen, das Bild ist falsch, die Farben verzerrt (Artefakte), Details gehen verloren
Wie wirkt sich eine zu kleine Abtastfrequenz auf Bilder/Videos/Filme aus? Was kann man dagegen machen, außer die Abtastfrequenz zu erhöhen?
Wenn man wie gewohnt interpoliert, kriegt man ein verfälschtes analoges Signal raus!
-> Die hochfrequenten Anteile sind nicht mehr vorhanden. An den Stellen, wo hochfrequente Anteile vorhanden waren, treten Abtastfehler/Aliasing-Effekte auf.
-> Visuelles Aliasing nennt man auch Moiree/Moiré -> in den hochfrequenten Bildanteilen sieht man seltsame Muster, die mit dem ursprünglichen Bildinhalt nichts mehr zu tun haben
Lösung: Einen Tiefpassfilter anwenden, um hohe Frequenzen bereits vor der Abtastung rauszufiltern. In vielen Kameras ist ein OLPF (Optical Low Pass Filter) vor dem Sensor fest verbaut.
Was versteht man unter Resampling?
= Änderung der Anzahl an Samples in einer bereits digital vorliegenden Aufnahme.
-> Nach einer DA-Wandlung findet eine erneute AD-Wandlung des gewonnenen Signals mit
einer neuen Samplerate statt.
Wichtig: Beim Vergrößern werden keine Details hinzugewonnen, die beim ersten Abtasten verloren gegangen sind!
Was ist der Unterschied zwischen einem Pixel, einem Sensel und einem Display Element?
Display Element: Ein modernes Display (LCD, OLED, etc.) besteht aus einer Menge einzelner Displayelemente, die die Helligkeit einzelner Pixel annehmen. Das Licht der sehr nah aneinander liegenden Displayelemente verschwimmt ineinander. Es wird gestreut/interpoliert!
Pixel sind nulldimensionale, punktförmige Sample eines visuellen Feldes
Sensel: Ein Bildsensor besteht aus einer festen Anzahl an Senseln (kann folglich nur feste Anzahl an Pixeln abtasten), die in einem Raster angeordnet sind und eintreffende Photonen “zählen” und linear in elektrischen Strom umwandeln, der danach von einem AD-Wandler quantisiert werden kann. Je größer die Fläche eines Sensels ist, desto mehr Photonen fängt er ein. Wenn entsprechend fein quantisiert wird, gewinnt man mit der Senselgröße Lichtstärke dazu
→ je mehr Bittiefe, desto mehr Blendenstufen
Ein Sensel hat dabei eine feste Anzahl an Photonen, die er maximal zählen kann (Full Well Kapazität), danach ist er gesättigt → zu helle Bildbereiche clippen.
Welche Sensorformate gibt es?
Mittelformat: Ist so groß, teuer und klobig, dass es nur in der Hochglanzfotografie verwendet wird → Hochprofessionelle Fotografie
Vollformat / Full Frame: Ist mit 36 x 24 mm äquivalent zum klassischen 35mm-Filmstreifen → “Profi-Standard”
APS-C: Hat keine standardisierte Größe, sondern wird von Herstellern unterschiedlich implementiert → Semi-professionelle Fotografie
(Micro) Four Thirds: Ist an den 4/3-Zoll-Fernsehbildwandler und an das 16mm-Filmformat angelehnt → Low-Budget-Fotografie
Die Größe des Sensors ist an keine konkrete Auflösung gebunden!
Wie hängen Sensor und Objektiv zusammen?
Objektive sind an Sensorgrößen gebunden (Bildkreis!)→ es gibt Vollformat-Optiken, APS-C-Optiken, etc…
Man kann Objektive, die für größere Sensoren ausgelegt sind, auch mit kleineren Sensoren benutzen → kleinerer Bildausschnitt
Wenn man den gleichen Bildausschnitt wie bei Vollformat erreichen will, muss man die Brennweite mit einem Crop-Factor multiplizieren.
APS-C hat einen Crop-Factor von ca. 1,5 - 1,6
MFT hat einen Crop-Factor von ca. 1,8 - 2,0
Sie möchten eine 28mm-Vollformatoptik mit Ihrer MFT-Kamera mit einem Crop-Faktor von 1,9 benutzen. Der erzeugte Bildausschnitt wirkt eher wie eine Brennweite von ca. ____ mm.
28mm * 1,9 = 53,2mm
-> Erzeugter Bildausschnitt entspricht einer 53,2mm Optik
Vergleichen Sie einen CCD- mit einem CMOS Sensor.
CCD = Charge Coupled Device
Die Sensel werden alle gleichzeitig belichtet, erst danach wird zeilenweise ausgelesen → Global Shutter. Es gibt nur einen Verstärker und einen AD-Wandler.
CMOS = Complementary Metal Oxide Semiconductor
Die Sensel haben jeweils eigene Ausleseelektronik, Verstärker und AD-Wandler. Es wird bereits während der Belichtung zeilenweise ausgelesen → Rolling Shutter
CMOS hat sich mittlerweile so stark durchgesetzt, dass CCD heutzutage kaum noch Relevanz hat.
Ein Sensel misst nur die Helligkeit, jedoch keine Farbe. Nennen Sie zwei Methoden, farbige Pixel zu erzeugen.
3-Chip-Bildwandler
Der 3-Chip-Bildwandler wird mit drei Sensoren und einem Strahlenteilerprisma realisiert. Jeder Pixel wird von je einem Sensel auf den drei Sensoren erzeugt → Man hat vollwertige RGB-Informationen pro Pixel
-> Hohe Lichteffizienz
-> Groß, klobig, teuer
→ sowohl mit CCD (3CCD) als auch CMOS (3MOS)
Es wurden früher auch Foto- und Filmkameras mit 3-Chip-Bildwandler hergestellt, heutzutage findet man jedoch nur noch Fernsehkameras mit der Technik
Single Large Sensor (SLS) mit Farbfiltermatrix
Die Farbfilter lassen nur Licht bestimmter Farben durch. Jeder Sensel ist mit einem Farbfilter bestückt und registriert nur Licht eines bestimmten Wellenlängenbereichs
-> Hauptsächlich in Foto- und Filmkameras vorzufinden.
Es können verschiedene Farben gefiltert werden. Die Filter können in verschiedenen Mustern angeordnet sein. Das Bayer-Pattern hat sich am meisten durchgesetzt.
Warum können Pixel/Sensel clippen?
Ein Sensel hat eine feste Anzahl an Photonen, die er maximal zählen kann (Full Well Kapazität), danach ist er gesättigt → zu helle Bildbereiche clippen/werden abgeschnitten -> sind nur noch rein weiß.
Erläutern Sie den Begriff Debayering.
Bei Single Large Sensoren, die mit einer Farbfiltermatrix in einem bestimmten Muster bestückt sind, müssen RGB-Werte von Pixeln müssen aus mehreren Senseln errechnet/interpoliert werden. Diesen Prozess nennt man Demosaicing, bzw. Debayering im Fall vom Bayer-Pattern.
Superpixel-Dabayering kombiniert 4 Senselwerte zu einem Pixel
→ einfach, aber man verliert 3/4 der Auflösung
Bilineares Debayering mit einer 3x3-Sensel-Matrix pro Sensel
→ Sensel-Auflösung entspricht der Pixelauflösung, ABER: Kanten werden unschärfer
Welches Problem kann man anhand des folgenden Histogramms feststellen?
-> Überbelichtung
Solang es nicht ein rechts komplett weißes Bild ist, müsste der “Hügel” der RGB-WErte auch wieder runtergehen
Nennen Sie den Vorteil und Nachteil der direkten Nutzung des Debayerings der Kamera
Man kann die Kamera das Debayering (und weitere Processing Steps) übernehmen und sich eine komprimierte Datei (JPEG) ausgeben lassen → kleinere Datei, aber mehr Artefakte
Man kann aber auch die rohen Sensordaten in einer sogenannten RAW-Datei speichern, um mehr Kontrolle bei der Entwicklung/Bildbearbeitung zu haben: man kann z.B. einen besseren Debayering-Algorithmus auswählen, den Weißabgleich anpassen und die Belichtung besser kontrollieren.
Erklären Sie Multiplexing im Kontext von serieller Datenübertragung.
= mehrere Signale/Informationsströme werden auf einer Leitung gleichzeitig in Form eines einzigen, komplexen Signals übertragen und auf Empfangsseite wieder in separate Signale zerlegt
Was ist Farbunterabtastung und was ist der Sinn davon?
Farbdifferenzsignale: Die Farbunterabtastung, auch chroma subsampling genannt, ist eine Technik zur Kompression, also zur Datenreduzierung von Videos. In dieser Technik werden die Helligkeitsunterschiede und Farbunterschiede des Bildes separat komprimiert.
4:4:4 hat für jeden Pixel einen Helligkeits- und einen Chroma-Wert (zwei Farbdifferenzwerte) -> für Chroma Keying und perfekte Qualität
4:2:2 hat halb so viele Chroma-Werte wie Helligkeitswerte, weil nur jeder zweite Pixel farblich abgetastet wird -> gute Qualität im Normalbetrieb
4:1:1 und 4:2:0 haben wiederum nur noch die Hälfte der Chroma-Werte von 4:2:2
-> Low Budget
-> für die menschliche Warnehmung ändert sich nicht viel, da wir nicht so empfindlich auf Farbunterschiede sind
Was ist das Time Reference Signal?
- Die Austastlücken werden zwar abgetastet, das Synchronsignal wird jedoch nicht quantisiert.
-> Stattdessen wird mithilfe eines Time Reference Signal (TRS, festes Muster aus 4 Bytes) am Anfang/Ende (SAV/EAV = Start/End of Active Video) jeder Zeile synchronisiert.
Im Ersten Byte sind alle Bits gleich 1, in den nächsten beiden Bytes sind alle Bits gleich 0.
Im letzten Byte sind die zum Synchronisieren notwendigen Informationen inkl. Fehlerschutz kodiert
- Ersetzt das Synchronsignal beim analogen Fernsehen
Was wird von Rec. 1886 standardisiert?
definiert EOTF (Electro-Optical Transfer Function):
-> Die EOTF wurde bei SDR-Bildschirmen mit einem Gamma von 2,4 standardisiert.
(=> Gammavorentzerrung
Bei Rec. 601 wurde die OETF aus dem analogen Fernsehen (ungefähr) beibehalten (Gamma 0,45) . Rec. 601 standardisiert eine OETF (Opto-Electrical Transfer Function, Gamma), in Abhängigkeit von der in Rec. 1886 definierten EOTF)
Was ist der Unterschied zwischen p, i und psF im Zusammenhang mit Framerates?
p = Progressive, ganze Bilder
i = Interlaced, Halbbilder
psF = progressive segmented frame = es wird ein ganzer (progressiver) Frame gleichzeitig belichtet und dann für die Übertragung in zwei Halbbilder (i) aufgeteilt, die im Empfänger wieder zu einem progressiven Bild zusammengesetzt werden.
Was ist SDI?
-> Schnittstelle für Übertragung von digitalen Videodaten in seriellem Datenstrom
→ Serial Digital Interface (SDI): Läuft über Koaxialleitungen mit BNC-Steckern
z.B. kann man über einen SDI-Anschluss an der Filmkamera einen zusätzlichen Monitor für den Regisseur/Kunden anschließen
Wofür werden bei digitalem Fernsehen die Austastlücken verwendet?
-> TRS
-> Vier oder mehr digitale Audiokanäle
-> Teletext
-> weitere Nutzerdaten
Sie arbeiten in einem Fernsehstudio und haben die Wahl, ob Sie eine Sendung in 1080p25 oder 1080i50 produzieren. Erläutern Sie die Vor- und Nachteile der beiden Normen.
1080p: Keine Aliasing-Artefakte, flackern, geringere Bewegungsauflösung
1080i: Interlacing-Artefakte (Aliasing) möglich, De-Interlacing im Bildschirm nötig
Ein 1080p50-Signals hat eine Abtastfrequenz von 148,5 MHz. Bei einer 4:4:4-Farbunterabtastung erhalten Sie eine Bitrate von 4,455 GBit/s. Berechnen Sie die verwendete Bittiefe.
4,455Gbit/s / (148,5MHz*3) = 10 bit
Wie groß ist die Auflösung von UHD-1 gegenüber HD?
4x so groß
Die Definition von UHD-Fernsehen (Rec. 2020) beinhaltet den sogenannten Wide Color Gamut. Was bedeutet das?
Ein größerer Farbraum mit neuen Primaries, sodass mehr Farben dargestellt werden können.
Wie unterscheidet sich eine digitale zur analogen Filmkamera?
- ähnlicher Formfaktor, bloß ohne die Filmkassette
- hinter dem Bajonett direkt den Sensor -> keine Umlaufblende mehr, es wird wie bei Mirrorless-Fotokameras rein elektronisch ausgelöst
- oft ein variabler ND-Filter auf LCD-Basis in der Kamera direkt vor dem Sensor verbaut
Was ist der Unterschied zwischen analogem und digitalem Super-35?
Analoges S35 ≠ Digitales S35
-> analoges S35 hat eine größere Fläche als “normaler” 35mm-Film für die Aufnahme verwendet
-> digitales S35 ist kleiner als 35mm / Full Frame -> eher das gleiche wie ein APS-C-Sensor. Bei Fotografie sagt man APS-C, bei Film sagt man S35
Was machen der erste und zweite Kameraassistent?
Erster Kameraassistent / First AC / Focus Puller
-> Meistens will sich der Kameramann auf die Bildkomposition konzentrieren und stellt eine zusätzliche Person für die Fokussierung (und andere kleinere Tasks) ein
-> Zum Fokussieren wird heutzutage meistens ein funkbasiertes Schärfeziehsystem benutzt
Zweiter Kameraassistent / Second AC / Clapper
-> wird oft eingestellt, um die Filmklappe zu bedienen: sie muss vor jedem Take neu beschriftet (Metadaten) und geschlagen (Synchronisation) werden
Wie kann man die Aufzeichnungen einer Filmkamera auslagern?
Die Kamera mit einem Videorecorder verbinden
-> für die Übertragung verwendet man meistens die aus dem Fernsehen bekannte SDI-Schnittstelle (oder HDMI)
Was macht ein Data Wrangler?
= Digital Imaging Technician (DIT)
kümmert sich darum, dass die Daten am Set immer rechtzeitig kopiert werden, mehrere Backups angefertigt werden, alle Stakeholder auf ihren Bildschirmen den richtigen Videofeed sehen und die technische Qualität der Aufnahmen den Anforderungen der Postproduktion entspricht
Was sind die Nachteile eines RAW-Workflows in der digitalen Kinematografie?
1. RAW-Dateien sind groß, was den Postproduktions-Workflow verlangsamen kann.-> RAW-Dateien benötigen mehr Speicherplatz als komprimierte Formate.
2. RAW-Dateien erfordern spezielle Software, um sie zu verarbeiten, was teuer sein kann.
Was sind Codecs und Container und wofür werden diese gebraucht?
Ein Videofile kann unabhängig von Auflösung, Framerate, etc. in unterschiedlichen Codecs und Containerformaten vorliegen.
Ein Codec ist ein hardware- oder softwarebasierter Prozess, der große Datenmengen komprimiert und dekomprimiert
Ein Container ist dabei das Dateiformat -> z.B. .MOV, .MXF, .MP4, .AVI, etc.
In dem Container liegen neben dem durch einen Codec komprimierten Videostream auch beliebig viele Audiospuren (Audiocodec) und textbasierte Metadaten, die durch den Container synchronisiert werden.
In welche zwei Kategorien kann man Videocodecs einteilen?
Intraframe und Interframe.
Intraframe-Kodierung = jeder einzelne Frame wird einzeln komprimiert, es wird also nur spatiale Redundanz zur Komprimierung verwendet
-> gute Qualität ohne viel Speicherplatz (z.B. ProRes/DNxHD)
Interframe-Kodierung = mehrere Frames werden zu einer Group-of-Pictures zusammengefasst und zusammen anhand ihrer temporalen Redundanz komprimiert
Was gehört alles zur Postproduktion eines Films?
1. Schneiden: spezielle Software, Non-Linear Editor (NLE) -> AVID Media Composer, Adobe Premiere Pro, DaVinci Resolve etc.
-> Clips in einer Timeline in mehreren Ebenen anordnen und daraus eine neue Videodatei rendern
-> geschnittener Film = “Picture Look”/”Final Cut”
2. Color Grading: ein Colorist bearbeitet bei jedem einzelnen Shot die Belichtung und Farbdarstellung
-> kreative Entscheidungen darüber, welche Elemente wie hell sein sollen (Tone Mapping).
-> kreativer Look für den Film erzeugt.
-> oft in Abhängigkeit vom Ausspielmedium unterschiedlich angepasst: eine Version für das Kino, eine für SDR-Fernsehen, eine für HDR-Fernsehen, etc…
VFX: VFX-Shots werden erstellt/bearbeitet
-> spezielle VFX-Postproduktionshäuser werden angeheuert.
Ton: Mischung des Set-Tons, die Aufnahme von Foleys und ADR, Komposition der Musik
-> oft von verschiedenen Personen übernommen.
Welche spatialen Auflösungen werden vom DCI definiert?
DCI (Digital Cinema Initiatives) definiert zwei Delivery-Auflösungen:
-> 2K und 4K
-> Bildseitenverhältnisse werden aus der analogen Kinematografie wiederverwendet: das Amerikanische Breitwandformat (Flat) und CinemaScope (Scope)
Achtung:
2K-DCI ≠ HD / 4K-DCI ≠ 4K-UHD
Gerade bei dem Begriff “4K” muss man aufpassen, welche Art von 4K gemeint ist: 4K-DCI aus dem Filmbereich oder 4K-UHD aus dem Fernsehen
Sie benutzen eine 8K-fähige Kamera, die Delivery-Auflösung ist jedoch 4K.
Beschreiben Sie zwei Methoden der Sensorauslesung.
Pixel Skipping: jeder n-te Sensel wird ausgelesen, bevor das weitere Processing stattfindet. Dies wird oft verwendet, wenn die Kamera beim Fotografieren eine höhere Auslösung braucht als bei Bewegtbildaufnahmen.
Vorteile: die ganze Fläche des Sensors wird genutzt.
Nachteil: Problem mit OLPF + Aliasing
Windowing / Center-Crop: Der Bildbereich wird beschnitten. Somit kann nur die vorgegebene Anzahl an Senseln um die Sensormitte ausgelesen werden.
Nachteil: optischen Konsequenzen, da nicht die gesamte Sensorfläche benutzt wird.
Was versteht man unter Resampling/Resizing im digitalen Film?
Mithilfe eines Rekonstruktionsfilters wird das visuelle Feld rekonstruiert und dann mit einer anderen Frequenz abgetastet -> Up-/Downsampling
z.B. man nimmt mit voller 4K Sensorauflösung ohne Skipping/Windowing auf und nimmt in der Postproduktion ein Resampling vor
Vorteile:
- man kann in der Postproduktion auch croppen, falls z.B. das Boom-Mic ins Bild ragt.
- z.T wirkt das Bild durch Downsampling schärfer.
- man kann sogar Bittiefe gewinnen.
-> mittlerweile Filmkameras mit höheren Auflösungen: 4.6K, 6K, 8K, 12K → Resampling zu 2K/4K
Wie müssten Framerates im digitalen Film idealerweise wiedergegeben werden und warum funktioniert das bewährte System trotz des scheinbaren Problems?
Idealerweise würde man bei jeder visuellen Szene schauen, welche Bildteile sich mit der höchsten Frequenz bewegen und nach dem mindestens doppelt so oft Frames aufnehmen, → Abtasttheorem
Bei der Wiedergabe müsste dann idealerweise ein Rekonstruktionsfilter angewandt werden, man müsste die Frames also ineinander blenden, um die Bewegung zu rekonstruieren:
NICHT MÖGLICH -> Ein Frame bildet keinen Zeitpunkt ab, sondern eine Zeitdauer (die Verschlusszeit). Es ist nicht praktikabel, jede Szene mit unterschiedlicher Framerate darzustellen, man will einen konstanten Standard.
Warum funktioniert das bewährte System trotzdem?
Durch die Verschlusszeit weisen bewegliche Objekte bei der Aufnahme einen Motion Blur auf → Bewegungsrichtung
Persistance of vision: Nachdem ein Bild projiziert wird, kann ein Mensch das Bild noch eine Weile lang auf seiner Retina “nachglühen” sehen. So wird die Dunkelphase überbrückt und leicht in den nächsten Frame geblendet.
Erläutern Sie den Speichenrad-Effekt.
Einzelbilder werden von unserem Sehsystem als kontinuierlicher Fluss wahrgenommen (Trägheit des Auges)
-> bei richtiger Framerate/Radgeschwindigkeit sieht das Bild richtig aus
-> Dreht sich nun ein Rad mitsamt den Speichen in Wirklichkeit exakt so schnell, dass die Filmkamera immer dann ein (Einzel-)Bild aufnimmt, wenn die Rad-Speichen wieder gleiche Position einnehmen wie beim vorherigen Einzelbild, entsteht der Eindruck, dass das Rad stillsteht.
-> Dreht sich das Rad in Wirklichkeit hingegen etwas schneller oder langsamer, wird das nächste Einzelbild von der Kamer dann aufgenommen, wenn die Speichen eine Position leicht rechts oder leicht links vom vorhergehenden Bild einnehmen – es entsteht der Eindruck einer sehr langsamen Vorwärtsbewegung oder einer Rückwärtsbewegung.
= Gesetz des nächsten Nachbarn
= temporales Aliasing
Warum ist HFR ein umstrittenes Thema?
-> Die Einwände/Bedenken: die Bewegung der Darsteller:innen sieht “zu flüssig” aus; die gebauten Kulissen verschwimmen nicht mehr so gut im Motion Blur und sehen “fake” aus
-> Grund: In den ca. 100 Jahren, in denen es Filme gibt, haben wir uns so sehr an die ästhetischen Charakteristika von 24 FPS gewöhnt, dass wir höhere Framerates als seltsam empfinden
Was versteht man unter DCI-P3?
= ein vom DCI festgelegter Gamut und EOTF für das Kino (Gamma 2,6; [Peak Brightness 48 cd/m²])
Was unterscheidet einen szenenbezogenen von einem displaybezogenen Workflow?
Display-referred Workflow
Im Fernsehen -> es wird so belichtet, dass es auf einem Bildschirm mit eingebauter EOTF direkt richtig aussieht
Scene-referred Workflow
Bei Film-> möglichst viele Blendenstufen einfangen, die bei der direkten Wiedergabe zwar nicht richtig aussehen, nach der Postproduktion (Color Grading) jedoch schon.
-> Im Fernsehen kann man sich jedoch kein Color Grading leisten.
Was ist das Problem bei linearer Kodierung im szenenbasierten Workflow?
Menschen sehen logarithmisch -> Kleine Veränderungen im Dunkeln sind sehr spürbar, kleine Veränderungen im Hellen hingegen kaum
Problem: Wenn wir ein Bild mit 8 Bit kodieren wollen, verteilen sich die dabei möglichen Code Values (CV) linear.
-> Um innerhalb einer Blendenstufe einen stufenlosen Verlauf darzustellen, braucht man ca. 70 CVs! Vor allem im dunklen Bereich sind das meistens zu wenige, wir sehen Stufen
-> das geht nur, wenn mit mindestens 16 Bit kodiert wird -> viel zu hohe Bitrate für Bewegtbild + es macht keinen Sinn, für helle Bereiche so viele CVs zu benutzen, wenn wir dort sowieso kaum Unterschiede wahrnehmen können
=> Lösung = logarithmischen (Log-) Kodierung
Welcher “Trick” wird angewandt, um in Filmkameras mit lediglich 10 Bit Quantisierung bis zu 16 Blendenstufen einzufangen? Warum funktioniert diese Methode?
Logarithmische (Log-) Kodierung
Es können 12-14 nutzbare Blendenstufen eingefangen werden = größerer Dynamik-Umfang
Effizientee Nutzung der vorhandenen CVs
Man hat mehr Blendenstufen in der Postproduktion zur Verfügung → Color Grading notwendig
Höhen und Tiefen werden logarithmisch komprimiert -> Tiefen bekommen mehr Anteil der verfügbaren Daten, als die Höhen
Verdopplung der Helligkeit —> immer gleich große Schritte
So hat man pro Blendenstufe nur genauso viele Code Values wie für den menschlichen Sehapparat notwendig sind.
Was ist LUT und nennen Sie einen Verwendungszweck für LUTs.
Log-Kodierung ist nicht standardisiert -> bei der Postproduktion muss man korrekt in ein gammakodiertes Signal für Bildschirme/Kinos umwandeln
→ man könnte rechen, das ist u.U. jedoch zu aufwendig
-> Tone Mapping → Loookup Tabelle (LUT): der gesuchte Wert wird nicht mathematisch
ausgerechnet, sondern in einer Tabelle nachgeschlagen
Verwendung:
Kreative LUTs: wenden einen Look auf das Footage an, z.B. alte analoge Kodakfilme
Technische LUTs: verwendet man zur Konvertierung zwischen verschiedenen Hersteller-Standards
Wie sind die Audio-Einstellungen für die Kino-Delivery standardisiert?
Digital Cinema Distribution Master (DCDM)
-> 48 Hz oder 96 Hz Abtastrate
-> 24 Bit Bittiefe
-> Bis zu 16 Kanäle
-> Format: PCM im WAV-Container
Was ist ein DCP?
Ein Digital Cinema Distribution Master (DCDM) kann für die Distribution in ein DCP verpackt werden:
-> Ein Digital Cinema Package (abgekürzt DCP) ist eine digitale Filmkopie, zur Vorführung im Kino, bei der die Bild- und Tondateien in einem speziellen Datenformat vorliegen.
Containerformat: MXF (Material eXchange Format)
Last changeda year ago