Optimierung mittels Gradientenverfahren
Statische Optimierung von Funktionen
- Der Anschaulichkeit halber gehen wir von einem PID-Regler aus.
- Dessen Parameter sind K, TN und TV.
- Angenommen wir könnten eine analytische Funktion Fehler = F(K, TN,TV) aufstellen, die den quadratischen Fehler der Reglerabweichung zwischen ist- und soll-Wert für jede Kombination der Parameter beerechnet.
- (Sie ahnen schon, dass das schwer möglich ist...)
- In diesem Fall könnte man die partiellen Ableitungen der Funktion F nach den drei Parametern bilden.
- Wenn an einer Stelle alle drei zu Null werden, ist das eine notwendige Bedingung für ein lokales Extremum.
- Tatsächlich muß ausserdem die Hessematrix positiv definit sein, d.h. ihre n Eigenwerte sind alle positiv.
- Für einen gegebenen Parametervektor x ist dann die hinreichende Bedingung für ein Extremum (stationärer Punkt):
|
Bild 0-1: Hinreichende Bedingung für ein lokales Extremum.
Aufgabe
- Bestimmen Sie mittels statischer Optimierung die Extrema von F(x,y)=x3-4x+y3-16y.
|
Alternative hinreichende Bedingung
- Statt die Eigenwerte der Hessematrix H zu bestimmen kann für die folgende quadratische Form geprüft werden: vTHv > 0
- Die Bedingung muß dabei für jeden Vektor v ungleich dem Nullvektor gelten.
- Diese Bedingung läßt sich häufig einfacher überprüfen, als die Eigenvektoren zu berechnen.
- Für die obige Aufgabe ergibt sich:
- H ist hier die Hesse-Matrix.
- x0 und y0 stehen für eine beliebige Stelle an der der Gradientenvektor Null wird.
- x und y sind beliebige Komponenten des Vektors v, wobei x und y nicht gleichzeitig Null sein dürfen.
|
Bild 0-2: Hinreichende Bedingung für ein lokales Extremum mit Hilfe der quadratischen Form.
- Man erkennt, dass sowohl x0, als auch y0 positiv sein müssen, um die Bedingung zu erfüllen.
|
Methode des größten Abstiegs
- Häufig gibt es Möglichkeiten den Gradientenvektor an jeder Stelle zu bestimmen.
- Jedoch gelingt es häufig nicht allgemein alle Nullstellen für den Gradientenvektor direkt zu bestimmen.
- In einem solchen Fall können verschiedene Gradientenverfahren angewendet werden, die sich nach ihrer Suchrichtung unterscheiden.
- Eine dieser iterativen Methoden ist die Methode des größten Abstiegs.
- Ausgehend von einem aktuellen Startpunkt xakt bestehend aus den Komponenten x1 bis xn wird die Richtung des größten Abstiegs bestimmt, um einen nachfolgenden Punkt zu erhalten.
- Die normierte Richtung r des größten Abstiegs berechnet sich folgendermaßen:
|
Bild 0-2: Methode des kleinsten Abstiegs.
Aufgabe
- Wenden Sie auf F(x,y)=x3-4x+y3-16y die Methode des größten Abstiegs an.
- Wählen Sie als Startpunkt (x,y)=(4,4) und für α den Wert 0,5.
|