Was ist die Grundidee des Newton-Verfahrens?
Lokale quadratische Approximation der Zielfunktion und analytische Bestimmung des Minimums.
Welche Ableitungen werden im Newton-Verfahren benötigt?
Gradient und Hesse-Matrix der Zielfunktion.
Warum ist das Newton-Verfahren rechnerisch aufwändig?
Weil zweite Ableitungen berechnet und Matrizen invertiert werden müssen.
Wie ist die Konvergenz des Newton-Verfahrens in Optimumsnähe?
Quadratisch bei ausreichend glatten Zielfunktionen.
Was ist die Grundidee des Gradientenverfahrens?
Abstieg in Richtung des negativen Gradienten der Zielfunktion.
Welche Information nutzt das Gradientenverfahren im Vergleich zum Newton-Verfahren nicht?
Die Krümmungsinformation (Hesse-Matrix).
Wie ist die Konvergenz des Gradientenverfahrens?
Lokal konvergent, aber langsamer als das Newton-Verfahren.
Was ist eine Schrittweitenstrategie?
Ein Verfahren zur Bestimmung der optimalen Schrittweite entlang einer Suchrichtung.
Warum sind Schrittweitenstrategien notwendig?
Um Konvergenz und Stabilität des Verfahrens sicherzustellen.
Was ist das gedämpfte Newton-Verfahren?
Ein Newton-Verfahren mit skalierter Schrittweite zur Stabilisierung.
Welches Ziel verfolgt das Armijo-Prinzip?
Sicherstellung einer ausreichenden Abnahme der Zielfunktion.
Was ist ein Quasi-Newton-Verfahren?
Ein Verfahren, das die Hesse-Matrix durch Näherungen ersetzt.
Warum werden Quasi-Newton-Verfahren eingesetzt?
Um Rechenaufwand zu reduzieren und Robustheit zu erhöhen.
Was ist die BFGS-Methode?
Ein bekanntes Quasi-Newton-Verfahren zur Hesse-Approximation.
Was ist das Levenberg-Marquardt-Verfahren?
Eine Regularisierung zwischen Gradienten- und Newton-Verfahren.
Für welche Problemklasse ist das Levenberg-Marquardt-Verfahren besonders geeignet?
Nichtlineare Fehlerquadratsprobleme.
Warum müssen Hesse-Matrizen positiv definit sein?
Damit die Suchrichtung eine Abstiegsrichtung ist.
Wann wird eine Regularisierung der Hesse-Matrix notwendig?
Wenn sie nicht positiv definit ist.
Was ist der Hauptunterschied zwischen Suchstrategien und Gradientenverfahren?
Gradientenverfahren nutzen Ableitungen und sind lokal effizienter.
Warum konvergieren Gradientenverfahren meist nur lokal?
Weil sie stark vom Startwert abhängen.
Last changed8 days ago