Nenne Latenz Realtime Simulatoren
Sine fitting (Steed 2008)
Light sensing (Di Luca 2010)
Automated frame counting (S. Friston und Steed 2014)
Usability testing (Lugrin u. a. 2013)
Profiling by instrumentation (Rehfeld, Tramberend, und Latoschik 2014)
Parameterized benchmarking (Stauffert, Niebling, und Latoschik 2016b; Stauffert, Niebling, und Latoschik 2016a)
Was sind die States der Rasterization Pipeline?
Fülle die Processing Pipeline Stages aus
Ist man nach der Projektion im 2D Space?
Nein, man ist immer noch im Pseudo depth space (normalized coordinate system)
Was brauche ich um einen ray zu berechnen?
Die Kameraposition und die Position auf der Image Plane
Was passiert hier?
Ein Ray wird durch die Plane geschossen und es wird gewartet, bis dieser etwas trifft
Was ist das Ziel von Asynchronous Timewarp" (ATW)?
Latenzprobleme in der Virtual-Reality-Wiedergabe zu minimieren.
Wie funktioniert ATW?
ATW funktioniert, indem es die Position und Ausrichtung des VR-Headsets verfolgt. Falls das Bild, das vom Computer generiert wird, nicht rechtzeitig für das nächste Bild bereit ist (was zu einer Verzögerung führen würde), wird stattdessen das vorherige Bild verwendet und entsprechend der neuen Kopfposition und -ausrichtung verzerrt (timewarped). Dies verhindert das Auftreten von Rucklern und sorgt für eine flüssigere Erfahrung
Was ist die Besonderheit von ATW?
Bildsynthese verzögert die Integration der Kopfposition so lange wie möglich und integriert die neuesten Sensordaten.
Was ist die Idee von ASW?
Anstelle von Bildausfällen: Generieren Sie ein neues Bild, indem Sie das Wissen über sich bewegende Objekte einbeziehen, um ein neues Bild zu extrapolieren, das mit den aktuellsten Daten verzerrt ist.
Idee ASW generiert extrapolierte Frames aus zuvor generierten Frames. Verfolgt Animation und Bewegung innerhalb der Szene, um das gesamte Erlebnis zu glätten.
Was sind die Anforderungen von Asynchronous Timewarp (Oculus), Asynchronous Reprojection (Valve)?
GPU-Hardware zur Unterstützung von Unterbrechungen mit angemessener Granularität.
Betriebssystem- und Treiberunterstützung zur Bereitstellung von GPU-Unterbrechungen.
Wie funktioniert Asynchronous Reprojection?
ASR funktioniert, indem es zwischen den gerenderten Bildern und dem tatsächlich auf dem Headset angezeigten Bild interpoliert. Falls das Bild nicht rechtzeitig bereit ist, führt ASR eine Art Reprojektion durch, um die Bewegung des Headsets zwischen den gerenderten Frames zu berücksichtigen. Dies hilft dabei, eine kontinuierliche Bewegung im Bild beizubehalten, selbst wenn die Bildrate niedriger ist als gewünscht.
Sind ASR und AWT unabhängig von der Bildsynthese?
Ja, sie arbeiten nach der Bildsynthese und sind somit unabhängig von der eigentlichen Erstellung der Bilder.
Was passiert beim Adaptive rahmenloses Rendern (Dayal et al. 2005)?
Adaptive zeitliche Probenahme
Zeigt Details, wenn sie am wichtigsten sind.
Analog zu der adaptiven räumlichen Probenahme, die im progressiven Raytracing verwendet wird (Bergman et al. 1986), das Details dort zeigt, wo es am wichtigsten ist,
Rahmenloses Rendern (Bishop et al. 1994)
Proben werden frei im Raum-Zeit-Kontinuum platziert, anstatt in regelmäßigen Rahmenintervallen.
Bilder werden aus einem beprobten Raum-Zeit-Volumen rekonstruiert, nicht aus kohärenten zeitlichen Schnitten
—> Entkoppelt räumliche und zeitliche Probenahme, ermöglicht adaptive räumliche und zeitliche Probenahme.
Was ist die Idee von Adaptive rahmenloses Rendern?
Verzicht auf starre Probenahmemuster gerahmter Renderer, um die Rendering-Geschwindigkeit zu erhöhen.
Passt die Probenahme und Rekonstruktion mit feiner Granularität an räumlich-zeitliche Farbänderungen an.
Was ist das Prinzip von Adaptive rahmenloses Rendern?
Rückgekoppelte Schleifen lenken die Probenahme auf Kanten oder Bewegungen im Bild.
Zeitlich tiefe Puffer speichern Proben über die Zeit zur Rekonstruktion und als Rückmeldung für den Sampler.
Die auf der GPU basierte Rekonstruktion reagiert auf die Probenahmedichte und raumzeitliche Farbgradienten.
Fülle das Bild aus und erkläre es
Proben vom Raytracer (Anlage) werden an einen Fehlertracker gesendet, der die Kachelung oder Fehlerkarte anpasst. Der adaptive Sampler (Kompensator) wählt dann einen Ort aus, um in einer Kachel zu rendern. Die ständig wechselnde Benutzereingabe (Störung) macht es sehr schwierig, den Fehler zu verfolgen und zu begrenzen.
Hinweis Die ständig wechselnde Benutzereingabe erschwert das Verfolgen/Begrenzen des Fehlers.
Was sind die Unterschiede von statischem und dynamischen Content bei Adaptive Frameless Rendering?
Statischer Inhalt
Räumliche Farbänderung dominiert.
Ältere Proben werden bei der Rekonstruktion stark gewichtet schärfere und ereignisantialiaste Bilder.
Dynamischer Inhalt
Neuere Proben werden betont.
-> weniger scharfe, aber aktuellere Bilder.
Was sind die Ergebnisse von Adaptive Frameless Rendering?
Ergebnisse (simuliert)
Größenordnungen weniger Proben als herkömmliches Rendern bei ähnlicher visueller Qualität (gemessen am RMS-Fehler).
Overhead 15% der Rechenzeit.
Welche Garbage Collectors gibt es und was sind die Funde ausgweitet auch auf die Sprachen?
Concurrent Mark Sweep (CMS)
GC G1 GC
Parallel GC
Serial GC
C4 GC (Zing, commerical)
Ergebnisse:
GCs zeigen einzigartige Muster von Latenzspitzen.
JVM-basierte Latenzspitzen (GC) sind deutlich höher als die durch den Betriebssystem-Scheduler induzierte Latenz.
Linux RT beeinflusste die Scala/Akka-Implementierung mit dem Standard-Scheduler, jedoch nicht mit dem Echtzeit-Scheduler.
Always check your assumptions by testing.
Number of test cases highly suffers from combinatorial growth.
Wie berechnet man die Anzahl der Test Cases?
implementations on
operating systems with
scheduling strategies using
garbage collection strategies
i*o*s*g potential test cases as benchmark conditions.
Nenne ein paar Fakten zu Model Checking
MC usually underestimates latency.
No clear differences for parallelism.
MC detected critical path potentially showing-up during run-time
Ordne die verschiedenen reconstructions den Bildern zu
(a): Traditional frameless reconstruction: leaves many artifacts of the view motion in the image.
(b): Adaptive reconstruction: rejects many outdated samples, eliminating artifacts & clarifying edges.
(c): Reprojection of samples: Improvements possible (see Walter, Drettakis, und Parker (1999)).
(d): Adaptive reconstruction & Reprojection: clarifies car’s motion & view-dependent reflections.
Last changeda year ago