kramann.info
© Guido Kramann

Login: Passwort:










5.4 Optimierung mittels Gradientenverfahren

Statische Optimierung von Funktionen

  • Der Anschaulichkeit halber gehen wir von einem PID-Regler aus.
  • Dessen Parameter sind K, TN und TV.
  • Angenommen wir könnten eine analytische Funktion Fehler = F(K, TN,TV) aufstellen, die den quadratischen Fehler der Reglerabweichung zwischen ist- und soll-Wert für jede Kombination der Parameter beerechnet.
  • (Sie ahnen schon, dass das schwer möglich ist...)
  • In diesem Fall könnte man die partiellen Ableitungen der Funktion F nach den drei Parametern bilden.
  • Wenn an einer Stelle alle drei zu Null werden, ist das eine notwendige Bedingung für ein lokales Extremum.
  • Tatsächlich muß ausserdem die Hessematrix positiv definit sein, d.h. ihre n Eigenwerte sind alle positiv.
  • Für einen gegebenen Parametervektor x ist dann die hinreichende Bedingung für ein Extremum (stationärer Punkt):
Hinreichende Bedingung für ein lokales Extremum.

Bild 5.4-1: Hinreichende Bedingung für ein lokales Extremum.

Aufgabe
  • Bestimmen Sie mittels statischer Optimierung die Extrema von F(x,y)=x3-4x+y3-16y.

Alternative hinreichende Bedingung

  • Statt die Eigenwerte der Hessematrix H zu bestimmen kann für die folgende quadratische Form geprüft werden: vTHv > 0
  • Die Bedingung muß dabei für jeden Vektor v ungleich dem Nullvektor gelten.
  • Diese Bedingung läßt sich häufig einfacher überprüfen, als die Eigenvektoren zu berechnen.
  • Für die obige Aufgabe ergibt sich:
  • H ist hier die Hesse-Matrix.
  • x0 und y0 stehen für eine beliebige Stelle an der der Gradientenvektor Null wird.
  • x und y sind beliebige Komponenten des Vektors v, wobei x und y nicht gleichzeitig Null sein dürfen.
Hinreichende Bedingung für ein lokales Extremum.

Bild 5.4-2: Hinreichende Bedingung für ein lokales Extremum mit Hilfe der quadratischen Form.

  • Man erkennt, dass sowohl x0, als auch y0 positiv sein müssen, um die Bedingung zu erfüllen.

Methode des größten Abstiegs

  • Häufig gibt es Möglichkeiten den Gradientenvektor an jeder Stelle zu bestimmen.
  • Jedoch gelingt es häufig nicht allgemein alle Nullstellen für den Gradientenvektor direkt zu bestimmen.
  • In einem solchen Fall können verschiedene Gradientenverfahren angewendet werden, die sich nach ihrer Suchrichtung unterscheiden.
  • Eine dieser iterativen Methoden ist die Methode des größten Abstiegs.
  • Ausgehend von einem aktuellen Startpunkt xakt bestehend aus den Komponenten x1 bis xn wird die Richtung des größten Abstiegs bestimmt, um einen nachfolgenden Punkt zu erhalten.
  • Die normierte Richtung r des größten Abstiegs berechnet sich folgendermaßen:
Kleinster Abstieg

Bild 5.4-2: Methode des kleinsten Abstiegs.

Aufgabe
  • Wenden Sie auf F(x,y)=x3-4x+y3-16y die Methode des größten Abstiegs an.
  • Wählen Sie als Startpunkt (x,y)=(4,4) und für α den Wert 0,5.