kramann.info
© Guido Kramann

Login: Passwort:










Regelungssysteme
1 day_by_day
2 Heizregelkreis
3 Verzoegerungsglieder
4 Laplace
..4.1 Eigenwerte
..4.2 PT1
..4.3 PRegler
..4.4 Scilab
5 Regleroptimierung
..5.1 Guetefunktion
..5.2 Heuristiken
..5.3 Scilab
..5.4 Gradientenverfahren
..5.5 ModifizierteG
..5.6 Gleichstrommotor
..5.7 Stoerverhalten
6 Javaanwendung
..6.1 PIDgeregelterAntrieb
..6.2 RungeKuttaIntegrator
..6.3 Gradientenverfahren
7 Einstellregeln
..7.1 Totzeit
..7.2 Methode1
..7.3 Methode2
..7.4 Scilab
..7.5 Daempfungsgrad
..7.6 Uebung
8 Polvorgabe
9 Beobachter
10 AutonomerHackenprosche
..10.1 Herleitung
..10.2 Scilab
..10.3 Modellerweiterung
..10.4 Scilab
..10.5 Modellgueltigkeit
..10.6 java
11 Stabilitaet
..11.1 Beispiele
..11.2 Nyqusitkriterium
..11.3 Windup
..11.4 Bode
12 Adaptiv
..12.1 Definition
..12.2 Einachser
..12.3 Auswertung
..12.4 Identifikation
..12.5 Regleroptimierung
..12.6 Zustandsregler
..12.7 Beobachter
13 Analyse
..13.1 Linear
..13.2 Nichtlinear
14 Kalmanfilter
15 Ue_04_2014
..15.1 Geschwindigkeit
..15.2 Richtung
..15.3 Gesamtsystem
..15.4 RiccatiUSW
..15.5 TdOT
16 Inverses_Pendel
17 Einachser
..17.1 Mechanik
..17.2 Uebung8
18 Fuzzy
..18.1 Fuzzylogik
..18.2 FuzzyRegler
..18.3 Uebung9
..18.5 Softwareentwicklung
....18.5.1 AgileSoftwareentwicklung
....18.5.2 FuzzyRegler
....18.5.3 Uebung
..18.6 Umsetzung
....18.6.1 FuzzyRegler
....18.6.2 Simulation
....18.6.3 Optimierung
....18.6.4 Uebung
..18.7 Haengependel
....18.7.1 Haengependel
....18.7.2 Simulation
....18.7.3 FuzzyRegler
....18.7.4 Optimierer
....18.7.5 Genetisch
..18.8 Information
..18.9 Energie
21 Beispiel1
98 day_by_day_WS2021_SoSe21
99 day_by_day_SoSe2018
kramann.info
© Guido Kramann

Login: Passwort:




Optimierung mittels Gradientenverfahren

Statische Optimierung von Funktionen

  • Der Anschaulichkeit halber gehen wir von einem PID-Regler aus.
  • Dessen Parameter sind K, TN und TV.
  • Angenommen wir könnten eine analytische Funktion Fehler = F(K, TN,TV) aufstellen, die den quadratischen Fehler der Reglerabweichung zwischen ist- und soll-Wert für jede Kombination der Parameter beerechnet.
  • (Sie ahnen schon, dass das schwer möglich ist...)
  • In diesem Fall könnte man die partiellen Ableitungen der Funktion F nach den drei Parametern bilden.
  • Wenn an einer Stelle alle drei zu Null werden, ist das eine notwendige Bedingung für ein lokales Extremum.
  • Tatsächlich muß ausserdem die Hessematrix positiv definit sein, d.h. ihre n Eigenwerte sind alle positiv.
  • Für einen gegebenen Parametervektor x ist dann die hinreichende Bedingung für ein Extremum (stationärer Punkt):
Hinreichende Bedingung für ein lokales Extremum.

Bild 0-1: Hinreichende Bedingung für ein lokales Extremum.

Aufgabe
  • Bestimmen Sie mittels statischer Optimierung die Extrema von F(x,y)=x3-4x+y3-16y.

Alternative hinreichende Bedingung

  • Statt die Eigenwerte der Hessematrix H zu bestimmen kann für die folgende quadratische Form geprüft werden: vTHv > 0
  • Die Bedingung muß dabei für jeden Vektor v ungleich dem Nullvektor gelten.
  • Diese Bedingung läßt sich häufig einfacher überprüfen, als die Eigenvektoren zu berechnen.
  • Für die obige Aufgabe ergibt sich:
  • H ist hier die Hesse-Matrix.
  • x0 und y0 stehen für eine beliebige Stelle an der der Gradientenvektor Null wird.
  • x und y sind beliebige Komponenten des Vektors v, wobei x und y nicht gleichzeitig Null sein dürfen.
Hinreichende Bedingung für ein lokales Extremum.

Bild 0-2: Hinreichende Bedingung für ein lokales Extremum mit Hilfe der quadratischen Form.

  • Man erkennt, dass sowohl x0, als auch y0 positiv sein müssen, um die Bedingung zu erfüllen.

Methode des größten Abstiegs

  • Häufig gibt es Möglichkeiten den Gradientenvektor an jeder Stelle zu bestimmen.
  • Jedoch gelingt es häufig nicht allgemein alle Nullstellen für den Gradientenvektor direkt zu bestimmen.
  • In einem solchen Fall können verschiedene Gradientenverfahren angewendet werden, die sich nach ihrer Suchrichtung unterscheiden.
  • Eine dieser iterativen Methoden ist die Methode des größten Abstiegs.
  • Ausgehend von einem aktuellen Startpunkt xakt bestehend aus den Komponenten x1 bis xn wird die Richtung des größten Abstiegs bestimmt, um einen nachfolgenden Punkt zu erhalten.
  • Die normierte Richtung r des größten Abstiegs berechnet sich folgendermaßen:
Kleinster Abstieg

Bild 0-2: Methode des kleinsten Abstiegs.

Aufgabe
  • Wenden Sie auf F(x,y)=x3-4x+y3-16y die Methode des größten Abstiegs an.
  • Wählen Sie als Startpunkt (x,y)=(4,4) und für α den Wert 0,5.