Konjugiertes Gradientenverfahren für differenzierbare Funktionen
Im Fall von nichtquadratischen, aber zweimal stetig differenzierbaren Funktionen


Dabei ist eine Funktion zweimal stetig differenzierbar, wenn sowohl der Gradient, als auch die Hessematrix in allen Punkten

Dazu wenden wir einfach das konjugierte Gradientenverfahren solange an, bis ein Abbruchkriterium (z.B. eine bestimmte Anzahl



Damit erhalten wir den Algorithmus:
Konjugiertes Gradientenverfahren für differenzierbare Funktionen:
|
Wähle einen Startpunkt
![]() ![]() ![]() ![]() Solange ![]() ![]() ![]() Bestimme ein Minimum ![]() ![]() Setze ![]() Setze ![]() |
Für die Wahl von

![]() |
|
![]() |
|
![]() |
Allerdings ist die Minimierung der Funktion

Um das Minimum

d.h. wir berechnen eine Folge von Werten



Dieses Verfahren ist jedoch nicht sehr sicher, da es uns auch ein Maximum oder auch ein

Wir werden daher im folgenden ein anderes Verfahren zur Schrittweitenbestimmung vorstellen,
welches wir anwenden, falls uns das Newton-Verfahren ein Maximum oder ein

Dieses Verfahren bestimmt ein




Die Bedingungen (W1) und (W2) werden als strenge Wolfe-Powell-Bedingungen bezeichnet.
Für die erste Ableitung der Funktion


und für die zweite

Line-Search Algorithmus zur Schrittweitenbestimmung:
|
Setze
![]() ![]() ![]() Solange ![]() ![]() Falls ![]() ![]() ![]() Setze ![]() Falls ![]() Setze ![]() Falls ![]() Setze ![]() Setze ![]() Setze ![]() |
Zoom( ![]() ![]() Setze ![]() Solange ![]() ![]() Setze ![]() Falls ![]() Setze ![]() sonst Setze ![]() Falls ![]() ![]() Setze ![]() sonst Falls ![]() Setze ![]() Falls ![]() Setze ![]() Setze ![]() Setze ![]() |
Es kann gezeigt werden, dass dieser Algorithmus mit einer Schrittweite ,
welches die strengen Wolfe-Powell-Bedingungen
erfüllt, terminiert, falls eine Abstiegsrichtung ist,
entlang der
nach unten beschränk ist.
Falls der Algorithmus jedoch mit terminiert, so ist entweder
keine Abstiegsrichtung
oder
nicht
nach unten beschränkt.
Da das konjugierte Gradientenverfahren aber immer Abstiegsrichtungen
berechnet, muss der zweite Fall gelten.
Dann ist aber auch die Funktion in Richtung von
nicht nach unten
beschränkt und das Gradientenverfahren bricht erfolglos
ab, d.h. vom Startvektor
aus kann das Verfahren kein strenges lokales Minimum finden.
![]() |
![]() |