Was ist ein faltendes neuronales Netzwerk (CNN)?
Ein CNN ist ein neuronales Netz mit speziellen Schichten zur automatischen Merkmalsextraktion, besonders geeignet für strukturierte Daten wie Bilder oder Zeit-Frequenz-Darstellungen.
Worin unterscheidet sich ein CNN von einem klassischen neuronalen Netz?
CNNs nutzen Faltungs- und Pooling-Schichten zur lokalen Merkmalsextraktion und Parameterreduktion.
Was ist die Aufgabe der Faltungs-Schicht?
Die Extraktion relevanter Merkmale aus den Eingangsdaten und die Erzeugung von Feature Maps.
Warum wird in CNNs häufig Kreuzkorrelation statt echter Faltung verwendet?
Weil sie rechnerisch einfacher ist und denselben Lerneffekt erzielt.
Was bedeutet Translationsinvarianz bei CNNs?
Erkannte Merkmale bleiben auch bei Verschiebung im Eingaberaum erhalten.
Welche Aufgabe hat die Aktivierungs-Schicht in CNNs?
Einführung von Nichtlinearität zur Modellierung komplexer Zusammenhänge.
Warum wird ReLU häufig als Aktivierungsfunktion verwendet?
Wegen einfacher Berechnung, Vermeidung des Vanishing-Gradient-Problems und sparsamer Aktivierung.
Was ist das Dying-ReLU-Problem?
Neuronen geben dauerhaft Null aus und lernen nicht mehr.
Was ist die Aufgabe der Pooling-Schicht?
Reduzierung der räumlichen Dimension, Verringerung von Overfitting und Erhöhung der Robustheit.
Was bewirkt die Flatten-Schicht?
Sie wandelt mehrdimensionale Feature Maps in einen eindimensionalen Vektor um.
Welche Aufgabe hat die vollständig verbundene Schicht?
Zusammenführung und Interpretation der extrahierten Merkmale zur Entscheidungsfindung.
Was ist die Aufgabe der Ausgabe-Schicht?
Bereitstellung des finalen Modellergebnisses, z.B. Klassenwahrscheinlichkeiten.
Wofür wird die Softmax-Funktion verwendet?
Zur Umwandlung der Ausgaben in Wahrscheinlichkeiten für Mehrklassen-Klassifikation.
Was ist die Kreuzentropie-Verlustfunktion?
Eine Verlustfunktion zur Messung des Fehlers zwischen vorhergesagten Wahrscheinlichkeiten und Zielklassen.
Welche Herausforderungen bestehen bei tiefen neuronalen Netzen?
Überanpassung, Vanishing Gradient, hoher Rechenaufwand und geringe Interpretierbarkeit.
Last changed22 days ago