Was sind Autoencoder, welchen Input enthalten sie und was für ein Ziel wird verfolgt?
Autoencoder: Autoencoder sind Neuronal Netzwerke und bestehen aus Encoder, Latenter Raum und Decorder
Input codieren
anschließend Decodieren
—> Daten können kondensiert werden, damit Rauschen verhindern, Anomalien erkennen
Erhalten Input: wird an nachfolgende Schichten mit weniger Neuronen weitergegeben
Selber Datensatz muss von weniger Neuronen repräsentiert werden, nur wichtigste Infos bleiben erhalten
Ziel: durch Einschränkungen der Mittelschicht neue Informationen zu generieren, sodass am Ende trotzdem der gleiche Output reproduziert werden kann
Welche Rolle spielen Autoencoder bei der Bewältigung von Herausforderungen in der Produktionsumgebung?
Kurze Antwort:
Erkennen von Anomalien und Störsignalen in Produktionsdaten
Reduktion der Datenkomplexität (hochdimensionalität) und -rauschen
Lösungsansatz durch Autoencoder:
Datenkondensierung
Anomalieerkennung
Noise Reduction
Wie unterstützen Autoencoder die Komplexitätsreduktion in der Produktion, und welches praktische Beispiel illustriert diesen Prozess?
Autoencoder reduzieren die Dimensionalität von Daten für eine effizientere Weiterverarbeitung.
Prozess:
Ausgang: Mehrdimensionale Daten mit komplexen Merkmalen (z.B. diverse Farbnuancen und Strukturen eines Baumes).
Autoencoder-Kompression: Extraktion wesentlicher Merkmale (z.B. Baum mit grüner Krone und braunem Stamm).
Ergebnis: Vereinfachter, dimensionenreduzierter Datensatz, welcher die Grundform und Farbe eines Baumes beibehält, ohne Detailnuancen.
Was ist der Unterschied zu CNNs?
Unterschiede zu CNNs:
Keine gelabelten Daten benötigt, es wird komprimierte Darstellung gefunden
Aufbau NN: Autoencoder = Flaschenhals/Verengung; CNN = kann gleiche Dimension über alle Layer haben
Anwendungsgebiete: Autoencoder: rekonstruieren + extrahieren; CNN = klassifizieren
Beschreiben Sie den Aufbau und die Funktion eines Autoencoders und erklären Sie, warum Datenkompression in der Produktion relevant ist.
Autoencoder: Neuronale Netze bestehend aus Encoder, latenter Raum, Decoder.
Funktion: Codieren Input, reduzieren Dimension im latenten Raum, rekonstruieren Output.
Datenkompression: Für effizienteres Feature-Engineering und relevantere Datenvisualisierung.
Relevanz in der Produktion:
Fokussierung auf einflussreichere Variablen
Verarbeitung komprimierter, effizienterer Datensätze
Bessere Modelltrainings und Visualisierungsergebnisse.
Was versteht man unter Datenkompression?
Datenkompression: effizientere und komprimierte Darstellung der Inputdaten
-> Produktion: Einsatz für Feature Engineering und Visualisierung relevanter Daten (es sind nicht alle Variablen und Daten gleich relevant)
Erläutern Sie den Unterschied zwischen einem klassischen Autoencoder und einem Variational Autoencoder (VAE) sowie den Nutzen des VAE in der Datengenerierung.
Klassischer Autoencoder: Gleicher Input liefert identischen Output; nicht für Datengenerierung geeignet.
VAE: Probabilistische Erweiterung, erzeugt eine Verteilung im latenten Raum.
Nutzen des VAE: Verbesserte Generalisierung durch Einbezug von Stochastik; kleine Änderungen in der latenten Darstellung beeinflussen die Rekonstruktion nicht stark; ermöglicht die Generierung neuer, ähnlicher Daten.
Was ist der Unterschied zwischen AE und VAE?
AE
VAE
Latente Variable ist nicht regularisiert
Latente Variable in komprimierter Form ist MW und Varianz
Latenten Zufallswert führt zu schlechter Ausgabe
Latenten Zufallswert erzeugt sinnvolle Ausgabe beim Decoder
Latente Variable hat eine Diskontinuität
Latente Variable ist glatt und kontinuierlich
Latente Variable ist deterministisch
Eingabe des Decoders ist stochastisch, wird von Gauß mit WM und Varianz der Ausgabe des Encoders abgetastet
Deterministisches Netz
Probabilistisches Netz
Was versteht man unter GAN?
Erzeugung von fotorealistischen Bildern von nicht existierenden Personen
Generative
Generative Modelle sind in der Lage, nach einem Trainingszyklus neue Daten, die einem bestimmten Muster folgen, zu erzeugen
Adversarial
Adversarial bezeichnet Systemdynamik, bei der Generator und Diskriminator in einem Nullsummenspiel gegeneinander antreten
Networks
Generator und Diskriminator werden in GANs durch NNs abgebildet
Generator = Künstler: erzeugt neue Daten, die echten Daten ähneln, indem er aus vorhandenen Daten lernt und versucht, sie nachzuahmen
Diskriminator = Kritiker: unterscheidet zwischen echten und generierten Daten, indem er die Authentizität der Daten bewertet und dem Generator Feedback gibt
—> Generator versucht, den Diskriminator durch Generierung realistischer, dem Trainingsdatensatz entsprechender, Daten zu überlisten
Klausurfrage: Was sind GANs (Generative Adversarial Networks), und wie funktionieren sie?
GANs: Bestehen aus zwei neuronalen Netzen, dem Generator und dem Diskriminator.
Funktion: Generator erzeugt neue Daten; Diskriminator bewertet, ob Daten echt oder gefälscht sind.
Prozess: Sie arbeiten in einem Nullsummenspiel, um den Generator zu trainieren, überzeugendere Daten zu produzieren.
Was versteht man unter iterativem Training bei GANs?
Stichpunktartige Kurzantwort:
Iteratives Training von Generator und Diskriminator.
Generator erschafft Bilder, Diskriminator bewertet sie.
Ziel des Generators: Täuschend echte Bilder.
Ziel des Diskriminators: Echte von generierten Bildern unterscheiden.
Durch Wettbewerb kontinuierliche Verbesserung beider Netzwerke.
Last changed9 months ago