Konjugiertes Gradientenverfahren für differenzierbare Funktionen
Im Fall von nichtquadratischen, aber zweimal stetig differenzierbaren Funktionen
Dabei ist eine Funktion zweimal stetig differenzierbar, wenn sowohl der Gradient, als auch die Hessematrix in allen Punkten
Dazu wenden wir einfach das konjugierte Gradientenverfahren solange an, bis ein Abbruchkriterium (z.B. eine bestimmte Anzahl
Damit erhalten wir den Algorithmus:
|
Konjugiertes Gradientenverfahren für differenzierbare Funktionen:
|
|
Wähle einen Startpunkt
Solange Bestimme ein Minimum Setze Setze |
Für die Wahl von
|
|
|
|
|
|
|
|
Allerdings ist die Minimierung der Funktion
Um das Minimum
d.h. wir berechnen eine Folge von Werten
Dieses Verfahren ist jedoch nicht sehr sicher, da es uns auch ein Maximum oder auch ein
Wir werden daher im folgenden ein anderes Verfahren zur Schrittweitenbestimmung vorstellen,
welches wir anwenden, falls uns das Newton-Verfahren ein Maximum oder ein
Dieses Verfahren bestimmt ein
Die Bedingungen (W1) und (W2) werden als strenge Wolfe-Powell-Bedingungen bezeichnet.
Für die erste Ableitung der Funktion
und für die zweite
|
Line-Search Algorithmus zur Schrittweitenbestimmung:
|
|
Setze
Solange Falls Setze Falls Setze Falls Setze Setze Setze |
|
Zoom( Setze Solange Setze Falls Setze sonst Setze Falls Setze sonst Falls Setze Falls Setze Setze Setze |
Es kann gezeigt werden, dass dieser Algorithmus mit einer Schrittweite
,
welches die strengen Wolfe-Powell-Bedingungen
erfüllt, terminiert, falls
eine Abstiegsrichtung ist,
entlang der
nach unten beschränk ist.
Falls der Algorithmus jedoch mit
terminiert, so ist entweder
keine Abstiegsrichtung
oder
nicht
nach unten beschränkt.
Da das konjugierte Gradientenverfahren aber immer Abstiegsrichtungen
berechnet, muss der zweite Fall gelten.
Dann ist aber auch die Funktion
in Richtung von
nicht nach unten
beschränkt und das Gradientenverfahren bricht erfolglos
ab, d.h. vom Startvektor
aus kann das Verfahren kein strenges lokales Minimum finden.


