Die direkte Methode von Ljapunow

Eine Funktion V: \overline{S(a,sigma)} –> R heißt positiv (semi)definit bezüglich {x}, wenn es eine nur von {x} abhängige Funktion W: \overline{K_{sigma}({0})} –> R gibt, die positiv (semi)definit ist und für die gilt: W({x}) <= V(t,{x})   forall   (t,{x}) in \overline{S(a,sigma)}.
Analog nennt man eine Funktion V: \overline{S(a,sigma)} –> R negativ (semi)definit bezüglich {x}, wenn es eine nur von {x} abhängige Funktion W: \overline{K_{sigma}({0})} –> R gibt, die negativ (semi)definit ist und für die gilt: W({x}) >= V(t,{x})   forall   (t,{x}) in \overline{S(a,sigma)}.

Eine stetige Funktion W: \overline{K_{sigma}({0})} –> R ist genau dann positiv definit, wenn es eine stetige, streng monoton wachsende Funktion alpha: [0,sigma] –> R gibt, für die alpha(0) = 0 und W({x}) >= alpha(\Vert{x......  {x}in \overline{K_{sigma}({0})} gilt.


Ist V: (t,{x}) \mapsto V(t,{x}) in R eine differenzierbare Funktion, so nennt man \dotV(t,{x}) = \frac{\partialV{\partial......_j(t,{x}) * f_j(t,{x}) die Ableitung von V bezüglich des Systems oder längs der Trajektorien des Systems \dot{x}=f(t,{x})}.
Für jedes erste Integral F(t,{x}) des Systems \dot{x}=f(t,{x})} gilt \dotF(t,{x})=0 für jedes {x}, welches auf einer Trajektorie liegt.

Eine zumindest auf S(a,rho) definierte, differenzierbare reellwertige Funktion V heißt Ljapunow-Funktion des (zumindest auf S(a,rho) definierten) Systems \dot{x}=f(t,{x})} mit F(t,{0})={0}, wenn für geeignetes sigma < rho gilt:

  1. V(t,{0})=0   forall   t >= a
  2. V(t,{x}) ist auf \overline{S(a,sigma)} positiv definit bezüglich {x}.
  3. \dotV(t,{x}) ist auf \overline{S(a,sigma)} negativ semidefinit bezüglich {x}.

Hinreichend für die Stabilität auf [a,infty)} der Null-Lösung des Systems \dot{x}=f(t,{x})} mit zumindest auf S(a,rho) stetigem f mit f(t,{0}) = {0} ist dann die Existenz einer Ljapunow-Funktion V.
Fordert man zusätzlich, dass \dotV negativ definit bezüglich {x} ist, und dass der Grenzübergang \lim_{x}–> {0} V(t,{x}) = 0 gleichmäßig bezüglich t in [a,infty)} ist, so kann man sogar auf die asymptotische Stabilität auf [a,infty)} schließen.

Hinreichend für die Instabilität auf [a,infty)} der Null-Lösung des Systems \dot{x}=f(t,{x})} mit zumindest auf S(a,rho) stetigem f mit f(t,{0}) = {0} ist die Existenz einer differenzierbaren Funktion V: S(a,rho) –> R mit

  1. V(t,{0}) = 0
  2. forall hinreichend kleine sigma < rho:    exists   t_{0} >= a,   {c}in K_{sigma}({0}):    V(t_{0},{c}) < 0
  3. \dotV ist negativ definit bezuüglich {x}
  4. \lim_{x}–> {0} V(t,{x}) = 0 ist gleichmäßig bezüglich t in [a,infty)}

Man kann (für dasselbe System wie oben) auch die Existenz einer stetig differenzierbaren Funktion V: S(a,rho) –> R und die eines Gebietes X \subseteq K_{sigma}({0}) (sigma < rho passend) fordern mit

  1. V(t,{0}) = 0   forall   t >= a,   forall   \e......bf{x}in K_{sigma}({0}) \cap {Rd}X
  2. V(t,{x}) ist auf [a,infty)}× X positiv und beschränkt durch S
  3. \dotV(t,{x}) >= alpha(V(t,{x})) auf [a,infty)}× X für eine stetige, monoton wachsende Funktion alpha: [0,S] –> R mit alpha(u) = 0  <==> }u = 0
  4. {0}in {Rd}X

Auch in diesem Fall folgt die Instabilität der Null-Lösung auf [a,infty)}.

Das Auffinden derartiger Funktionen ist allerdings oft schwierig. Manchmal leistet ein erstes Integral eines vereinfachten Systems das Gewünschte.


Bei autonomen Systemen in der Ebene hilft oft auch die Transformation in Polarkoordinaten, wo z.B. aus dem Vorzeichen von \dot{r} Rückschlüsse auf die Stabilität von Lösungen gezogen werden können.


 Diese Seite erfüllt die HTML-4.01-Spezifikationen!
Übersicht
Zurück Home Weiter
Index