Zur Einführung wurde eine Klassifizierung von Raupen und Käfern vorgenommen. Erklären Sie kurz das iterative Vorgehen zur Ermittlung der Diskriminanzfunktion zunächst ohne Lernrate.
Zeigen Sie anschließend den Vorteil, den man durch die Nutzung der Lernrate erhält, auf.
Def. Käfer -> breiter als lang.
| - -
| o o
|—————————
Random Gütelinie Ziehen mit parameter A einzeichnen
Mit Objekt Vergleichen
ist breiter als Lang… Fehler berechnen —> Parameter a neu berechnen (in diesem Fall über den Käfer)
Ist länger als Breit Güte Linie unter Objekt verschieben
Problem: Wird als letztes der unterste Käfer überprüft, ist der Fehler sehr groß und der Parameter ist schlecht gewählt
Vorteil Lernrate: Der Einfluss auf die Gütelinie wird nun durch einen Faktor begrenzt.
Warum bezeichnet man die Klassifizierung als „unscharfe Aussage“?
Die Klassifizierung wird manchmal als "unscharfe Aussage" bezeichnet, weil sie in vielen Fällen keine definitive oder absolute Antwort liefert, sondern eine Wahrscheinlichkeit oder Unsicherheit in Bezug auf die Zuordnung eines Objekts zu einer bestimmten Klasse oder Kategorie angibt.
Wie werden die Gewichte in einem Fillconnected Layer berechnet?
a=1,0 -> (1) ->(1) -> x
X
b=0,5 -> (2)-> (2) -> y
Gewichte w11 w12 w21 w22
x = (input a w11) + (input a w12) ohne Aktivierungsfunktion
x = 1/(1+e^(input a w11) + (input a w12)) mit Aktivierungsfunktion
Zeigen Sie, wie der Fehler/Gradienten „korrekt“ auf die einzelnen Schichten im Netz verteilt werden?
Der Fehler der die Differenz zwischen Output und Soll berechnet wird, wird mit den jeweiligen Gewichten im Verhältnis zurückgeführt.
Kann mit dem Gradientenabstiegsverfahren ein globales Minimum des Fehlers erreicht werden? Begründen Sie Ihre Antwort? Falls Ihre Antwort „Nein“ ist: Was unternimmt man, um möglichst doch ein globales Minimum zu erreichen? Falls Ihre Antwort „Ja“ ist: Woran erkennt man, dass man das globale Minimum erreicht hat?
Ja.
Woran erkennt man, ob das globale Minimum erreicht wurde?
Dabei kann man sich nie sicher sein, auch wenn man in mehrere Iterationen mit anderen Startpunkten trainiert, kann man immer nur in einem lokalen Minimum landen.
Welchen Einfluss hat die „Schrittweite“ im Gradientenabstiegsverfahren auf die Suche nach dem Minimum?
Auch Lernrate genannt.
Wird die Lernrate zu groß gewählt, kann man ggf. das Minimum nicht erreichen und springt hin und her. Ist sie zu klein, landet man ggf. zu schnell in einem lokalen Minimum und das Training dauert länger.
Besser die Schrittweite kontinuierlich, ohne Sprünge zu machen, verkleinert. Denn nur so verhindert man, dass man um das Minimum herum pendelt, ohne es jemals zu erreichen.
Was ist ein Gradient?
Wenn f(x,y) ein Skalarfeld zum Beispiel eine Fehlerfunktion ist, so ist der Gradient von f ein Vektor, der in die Richtung der größten Steigung von f im Punkt P(x;y) zeigt und dessen Betrag gleich der Steigung ist.
Erste Ableitung —> gibt die Steigung an
bezeichnet man den Verlauf der Änderung (Gefälle oder Anstieg) einer Größe auf einer bestimmten Strecke.
Last changeda year ago