Buffl

Klassifikation mit Neuronalen Netzen

MS
by Michelle S.

Erläutere die Backwardpropagation

Die Aufgabe in der Backwardpropagation ist die schichtweise Gewichtsanpassung der neuronalen Layer vom Ausgang bis zum Eingang des Netzes. Diese Arbeitsrichtung gibt das verwendete Gradientenabstiegsverfahren vor.

In diesem Verfahren wird das Minimum des Fehlers in Bezug zum Einfluss der jeweiligen Gewichte gesucht, d.h. die Antwort auf die Frage, bei welchen Gewichtswerten der Netzfehler minimiert ist. Die Suche nach funktionalen Minima erfolgt mathematisch durch das Nullsetzen der ersten Ableitung der Funktion.

Bei einer mehrdimensionalen Funktion (in der Regel liegen mehrere Gewichte vor) wird dies durch sogenannte partielle Ableitungen nach jeweils einer Variablen erreicht. Die partielle Ableitung ermöglicht es, den Gradienten (Richtungsableitung) der Funktion als stärkste Steigung in einem Punkt zu ermitteln. Nun gilt es, diesen Gradienten entgegengesetzt, in Richtung des "geringsten Fehlerwertes abzusteigen".



In der Grafik ist dieser Gradientenabstieg zur Minimierung des Fehlerwerte e in Bezug der Gewichte w1 und w2 visualisiert. Mit der Richtungsableitung für jeden Punkt der zweidimensionalen Fehlerfunktion E (abhängig von den Gewichten w1 und w2 ) lässt sich das Minimun der Fehlerfunktion finden.

Hierzu führt der Gradienten in negativer Richtung zum Minimun der Fehlerfunktion, bzw. zu den jeweiligen Werten der Gewichte w1 und w2, die dieses Fehlerminimum ermöglichen. Dies sind dann die einzustellenden Gewichtswerte.


(basierend auf Fehler Netz kann ujedes einzelne Gewicht angepasst werden)

Author

Michelle S.

Information

Last changed