Buffl

VFX

TK
by Tamara K.

Beschreiben Sie die notwendigen 6 Schritte der Datenverarbeitung der Scan Daten.

1. Punktwolke

= räumliche Visualisierung der Scandaten -> jeder Messwert wird als Punkt in einem dreidimensionalen Koordinatensystem dargestellt

- Punktwolken-Bearbeitungsprogramme sortieren Daten aller Scans in einer räumlichen Datenstruktur (Octree)

-> Punktwolken lassen sich effizienter und schneller auslesen

2. Registrierung

= Zusammenfassung mehrerer Scans zu einer gemeinsamen Punkwolke (globales Koordinatensystem mit Ausrichtung und Position aller Punktwolken)

-> Top View Cloud to Cloud Algorithmus: führt den Raum, von oben betrachtet, zusammen und vergleicht gleiche Punktpaare der Wolken mithilfe einer Referenzwolke (Überlappungen); Feinheiten werden nicht erkannt

-> Zielmarkenbasiert: Punktwolken werden an Targets (z.B. Schachbrettmarker) ausgerichtet und durch Reflexionseigenschaften automatisch erkannt und zugeordnet

3. Relokalisierung

= Alle Scans wurden zueinander ausgerichtet

- gemeinsame Punktwolke liegt meistens weitab vom Ursprung

-> Gesamter Raum muss im Programm lokalisiert werden

4. Clean-up

= Entfernung aller Scan-Artefakte und störender Elemente. Reduzierung auf arbeitsfähige Zahl von Punkten

5. Meshing

Scanpunkte werden in Polygonnetz überführt

6. Farb- und Helligkeitswerte

- Rückstrahlintensitäten der Messpunkte werden als Helligkeitswerte abgespeichert

-> können später genutzt werden, um Punktwolke nach Qualität der Einzelmessungen zu filtern

- Helle Messpunkte mit hoher Rückstrahlung sind genauer als dunkle Messpunkte mit niedriger Rückstrahlung

- integrierte Farbkamera, die aus mehreren Spiegelpositionen Fotos macht & zusammenführt


Welche 3 messrelevanten Fehler können bei dem Scanvorgang auftreten und durch welche Clean Up Methoden können diese Fehler eliminiert werden?

Outliers: Ausreißer durch schlechte Oberflächenbeschaffenheit (Regentropfen, reflexive Oberflächen wie Glas etc.)

Static Outlier Filter (Static Outlier Removal Algorithmus): berechnet durchschnittliche Distanz jedes Scanpunktes zu seinen Nachbarn

-> am Ende eines Clean-ups wird Punktdichte über einen Subsample-Algorithmus noch einmal reduziert

-> gleichmäßige Punktdichte wichtig


Noise: Messabweichung durch Positionsabweichungen von Scanner/Objekt während des Scans

- Dunkle Scanpunkte sind ungenauer und besitzen schlechteres Rauschverhalten als helle Punkte

-> Filtern auf Basis von Helligkeitswerten filtern

Noise Filter: nähert mehreren Punkten in einem definiertem Radius eine Fläche an

-> Punkte, die zu stark von Fläche abweichen werden entfernt (mit Toleranzgrenze)

-> eignet sich gut zum Bereinigen von Ebenen, nicht so gut für Säuberung von Kanten


Strays: An einer Kante könnte ein Teil des Lichts nicht richtig reflektiert werden und wird dann erst an Wand dahinter reflektiert

Stray Filter: Lage eines Scanpunktes wird mithilfe eines Rasters zur Lage seiner Nachbarn vergleichen

-> Raster wird über Ausgangspunkt und seine Nachbarn gelegt -> Tiefenstaffelung der Punkte wird betrachtet und über Distance Threshold eingegrenzt

-> liegt eine bestimmte Anzahl an Punkten (Allocation Treshold) innerhalb der Distanz bleibt der Ausgangspunkt erhalten, sonst wird er gelöscht

Nennen und beschreiben der Abläufe der Arbeitsschritte einer Photogrammmetrie Software-Data Processing.

1. Natural Features Extraction

- Markante Pixelgruppen/Wiedererkennbare Punkte

= Deskriptoren, bestenfalls unveränderlich gegenüber:

-> wechselnden Kameraperspektiven

-> Koordinatentransformationen (Translation, Rotation, Skalierung)

-> Beleuchtungsvariationen

-> Bildrauschen

2. Image Matching

= Bilder finden, die auf selben Bereich der Szene schauen

- Vocabulary Tree Ansatz (Baumstruktur) -> vergleicht Bilddeskriptoren um zu sehen, ob verschiedene Bilder den gleichen Inhalt haben

3. Features Matching

= alle Deskriptoren zweier Bildpaar-Kandidaten abgleichen und zueinander matchen

- Approximate Nearest Neighbor Algorithmus

- Cascading Hashing Algorithmus

- Epipolare Geometrie: Ein Punkt im ersten Bild gegeben, Suchhbreich schränkt sich bei bekannter Epipolargeometrie im zweiten Bild auf eine Linie ein

4. Structure from Motion

= Bestimmen der Kameraposition und deren Orientierung

- Sequenz sich stark überlappender Fotos, die Umgebung aus unterschiedlichen Perspektiven lückenlos abdeckt

-> übereinstimmende Pixelpunkte ermöglichen Verknüpfung der Bilder und Bestimmung der Kameraposition

-> dünne Punktwolke der zu erfassenden Umgebung entsteht

5. Depth Map Estimation

= Bestimmung des Tieferwertes jedes Pixels (= Entfernung zur Kamera)

- Multiple View Stereo/Geometry Algorithmus nutzt die durch die SfM ermittelten Informationen zur Lage der Kamera um eine dichte Punktwolke/eine dreidimensionale Punktwolke zu erzeugen

6. Meshing

= geometrische Flächendarstellung erstellen

- Tiefenkarten werden zu einem globalen Octree

-> Ein Mesh wird über eine der vielen Methode (z.B. Poison Surface reconstruction) erzeugt

7. Texturing

= UV Maps berechnen (U=horizontal, V=vertikal)

- UV-Map ist 2D Darstellung eines 3D Raums (wie aufgefalteter Würfel)

- durch Algorithmus wird eine UV-Map erstellt.

-> Projektionen der Bilder werden übergeblendet und schließlich UV-Map gepackt


Author

Tamara K.

Information

Last changed