7.4. Lineare Differentialgleichungen

Definition. Es seien $J$ ein Intervall und $E$ ein Banachraum, $A\in \mathcal C\left(J,\mathcal L(E,E)\right)$ und $f\in \mathcal C(J,E)$. Dann heißt $$\dot{x}=A(t)x+f(t)$$ lineare Differentialgleichung erster Ordnung. Ist $f=0$, so heißt sie homogen, andernfalls inhomogen.

Interessant ist insbesondere der Fall konstanter Koeffizienten .

Bemerkungen.

  • Der Lösungsraum einer homogenen linearen Differentialgleichung erster Ordnung ist der Kern der linearen Abbildung $$\Phi\colon \mathcal C^1(J,E)\to \mathcal C(J,E),\quad u\mapsto \dot{u}-Au$$ und bildet folglich einen Untervektorraum von $\mathcal C^1(J,E)$. Die Auswertungsabbildung $$\mathrm{ev}_{t_0}\colon \ker\Phi\to E,$$ welche jeder Lösung $u$ den Anfangswert $u(t_0)$ zuordnet, ist ebenfalls linear und nach Satz 7.3.1 eine Isomorphismus.
  • Der Lösungsraum einer inhomogenen linearen Differentialgleichung erster Ordnung ist ein affiner Raum. Genauer ist der Lösungsraum der inhomogenen linearen DGl $\dot{x}=Ax+f$ das Urbild $\Phi^{-1}(f)$ für die oben bereits definierte lineare Abbildung $\Phi\colon u\mapsto \dot{u}-Au$. Gegeben eine spezielle Lösung $u_0$ der inhomogenen DGl, lässt sich jede andere Lösung der inhomogenen Gleichung darstellen als Summe von $u_0$ und einer Lösung der homogenen DGl.
  • Der Fall konstanter Koeffizienten $A\in \mathcal L(E,E)$ wurde bereits behandelt. Lösungen zum Anfangswert $(t_0,x_0)$ sind von der Form $$u(t)=e^{A(t-t_0)}x_0.$$
  • Der Fall einer skalaren homogenen linearen Differentialgleichung $\dot{x}=a(t)x$ lässt sich durch Trennung der Variablen einfach lösen. Zum Anfangswert $(t_0,x_0)\in \mathbb R^2$ erhält man die Lösung $$x(t)=\exp\left(\int_{t_0}^ta(\tau)\,d\tau\right)\cdot x_0.$$
  • Ist $A\in \mathcal C\left(J,\mathcal L(E,E)\right)$ und ist $\dim(E)\gt 1$, so gibt es keine allgemeine und einfache Gleichung, um die Lösung der homogenen DGl $\dot{x}=A(t)x$ hinzuschreiben. Wo liegt die Schwierigkeit? Tatsächlich macht die im Falle $E=\mathbb R$ als Lösung hingeschriebene Formel als Kombination von Exponentialfunktion und Integral auch in allgemeinen Banachräumen Sinn. Um das Problem mit dieser Formel zu skizzieren, betrachten wir das Integral $$B(t)=\int_{t_0}^tA(\tau)\,d\tau,$$ und versuchen, die Ableitung der Funktion $$\exp\left(B(t)\right)\cdot x_0$$ nach der Variablen $t$ zu berechnen. Die Kettenregel besagt $$\partial_t\left(\exp\left( B(t) \right)\cdot x_0\right)=\left(\partial\exp\right)(B(t))\cdot \dot{B}(t)).$$ Der Hauptsatz der Differential- und Integralrechnung identifiziert den zweiten Faktor als $A(t)$. Das Problem ist der erste Faktor: Wir kennen die Ableitung der Exponentialfunktion an der Stelle $B(t)\in \mathcal L(E,E)$ nur in solche Richtungen $H\in \mathcal L(E,E)$, welche mit $B(t)$ kommutieren, d.h. nur für solche $H$, für die gilt $HB(t)=B(t)H$. Im Allgemeinen können wir aber nicht annehmen, dass gilt $A(s)B(t)=B(t)A(s)$ für irgendwelche $s,t\in \mathbb R$.

Für $A\in \mathcal L(E,E)$ und $f\in \mathcal C(J,E)$ betrachten wir die inhomogene Differentialgleichung mit konstanten Koeffizienten $$\dot{x}=Ax+f(t).$$ Diese Differentialgleichung besitzt ein erstes Integral $$\Phi(t,x)=\exp(-At)x-\int_0^t\exp(-\tau A)f(\tau)\,d\tau,$$ denn nach dem Hauptsatz der Differential- und Integralrechnung gilt $$\partial_1\Phi(t,x)=-A\exp(-At)x-\exp(-At)f(t),\quad D_2\Phi(t,x)=\exp(-At).$$ Folglich ist diese Abbildung $\Phi$ erstes Integral zur Differentialgleichung $$\dot{x}=-\left(D_2\Phi(t,x)\right)^{-1}\partial_1\Phi(t,x)=Ax+f(t).$$ Daraus erhalten wir den folgenden Satz:

7.4.1 Satz über die Variation der Konstanten. Für die inhomogene Differentialgleichung $\dot{x}=Ax+f$ mit konstanten Koeffizienten $A\in \mathcal L(E,E)$ und Inhomogenität $f\in \mathcal C(J,E)$ existiert zu gegebenen Anfangswerten $(t_0,x_0)\in J\times E$ die eindeutige Lösung $$u(t)=e^{A(t-t_0)}\left(x_0+\int_{t_0}^te^{-A(\tau-t_0)}f(\tau)\,d\tau\right).$$

Beweis. Ist $u(t)$ eine Lösung der Differentialgleichung, so ist $\Phi(t,u(t))$ konstant, also gleich $\Phi(t_0,u(t_0))=\Phi(t_0,x_0)$. Auflösen der resultierenden Gleichung $$e^{-At}u(t)-\int_0^t e^{-A\tau}f(\tau)\,d\tau =\Phi(t,u(t))=\Phi(t_0,x_0)=e^{-At_0}x_0-\int_0^{t_0} e^{-A\tau}f(\tau)\,d\tau$$ nach $u(t)$ liefert das Ergebnis.
qed

Wieso der Name? Dazu betrachten wir den Fall einer skalaren inhomogenen DGl. Die homogene Differentialgleichung $\dot{x}=ax$ besitzt die allgemeine Lösung $v(t)=c\cdot e^{at}$ mit $c\in \mathbb R$. Der Ansatz zur Lösung der inhomogenen DGl $\dot{x}=ax+f$ ist nun, die Konstante $c$ als Variable zu betrachten $$x(t)=c(t)v(t).$$ Dieser Ansatz liefert $$ \dot{c}\,v+c\,\dot{v}= \dot{x}=ax+f=a\,cv+f.$$ Aus $\dot{v}=av$ folgt $\dot{c}v=f$ und damit $$c=\int_{t_0}^tv^{-1}f\,\,d\tau +c_0.$$

Das Verständnis linearer DGl mit konstanten Koeffizienten ist grundlegend für das Verständnis von Differentialgleichungen. Gegeben eine allgemeine Differentialgleichung der Form $$\dot{x}=f(x)$$ für $x\in \mathbb R^n$, so kann man analog zur Kurvendiskussion, wie Sie sie aus der Schule kennen, eine hemdsärmlige Diskussion der DGl auf folgende Weise durchführen:

  1. Schritt: Bestimme die stationären Lösungen der DGl, also die Lösungen $u$ mit $\dot{u}=0$. Dies ist offenbar äquivalent zur Bestimmung der Nullstellen von $f$.
  2. Schritt: Bestimme die Taylorentwicklungen von $f$ an den stationären Lösungen. Wir nehmen also an, die Funktion $f$ sei differenzierbar und lokal, nahe einer Nullstelle $s$ von $f$, in eine Taylorreihe entwickelbar $f(s+y)=f(s)+\partial f(s)y+o(\|y\|)=0+\partial f(s)y+o(\|y\|)$. Wir erwarten, dass die Lösungen der nichtlinearen DGl $\dot{x}=f$ zumindest nahe der stationären Punkte sich ähnlich verhalten, wie Lösungen des linearen Problems $\dot{y}=\partial f(s) y$.
  3. Schritt: Löse das lineare Problem $\dot{y}=\partial f(s) y$.

Wir wollen dies Programm an der bereits besprochenen DGl von Lotka-Volterra $$\dot{x}=\left(\begin{matrix} \dot{x}_1\\ \dot{x}_2\end{matrix}\right)=\left(\begin{matrix} \alpha_2x_1-\beta_2x_1x_2\\ -\alpha_1x_2+\beta_1x_1x_2\end{matrix}\right)$$ illustrieren. Hier sind $\alpha_i$ und $\beta_j$ positive reelle Zahlen. Wir betrachten die beiden stationären Lösungen $s_0=(0,0)$ und $s_1=\left(\frac{\alpha_1}{\beta_1},\frac{\alpha_2}{\beta_2}\right).$ Die Linearisierung der DGl an der stationären Lösung $s_0$ ist offenbar von der Form $$ \left(\begin{matrix} \dot{x}_1\\ \dot{x}_2\end{matrix}\right)=\left(\begin{matrix} \alpha_2x_1\\ -\alpha_1x_2\end{matrix}\right)=\left(\begin{matrix} \alpha_2&0\\ 0&-\alpha_1\end{matrix}\right)\left(\begin{matrix} x_1\\ x_2\end{matrix}\right).$$ Zu gegebenen Anfangswert $\left(\begin{matrix} c_1\\ c_2\end{matrix}\right)$ und Anfangszeitpunkt $t_0=0$ erhalten wir also die Lösung $$u(t)=\exp\left( \left(\begin{matrix} \alpha_2&0\\ 0&-\alpha_1\end{matrix}\right)t\right)\left(\begin{matrix} c_1\\ c_2\end{matrix}\right)=\left(\begin{matrix} e^{\alpha_2t}c_1\\ e^{-\alpha_1t}c_2\end{matrix}\right).$$ Interessanter ist die zweite stationäre Lösung $s_1$. Für die Taylorentwicklung an $s_1$ wählen wir neue Koordinaten $$\left(\begin{matrix} {x}_1\\ x_2\end{matrix}\right)=\left(\begin{matrix} y_1+\frac{\alpha_1}{\beta_1}\\ y_2+\frac{\alpha_2}{\beta_2}\end{matrix}\right).$$ In diesen neuen Koordinaten lautet die DGl wie folgt: $$ \left(\begin{matrix} \dot{y}_1\\ \dot{y}_2\end{matrix}\right)=\left(\begin{matrix} -\frac{\alpha_1\beta_2}{\beta_1}y_2-\beta_2y_1y_2\\ \frac{\alpha_2\beta_1}{\beta_2}y_1+\beta_1y_1y_2\end{matrix}\right)=\left(\begin{matrix} 0&-\frac{\alpha_1\beta_2}{\beta_1}\\ \frac{\alpha_2\beta_1}{\beta_2}&0\end{matrix}\right)\left(\begin{matrix} y_1\\ y_2\end{matrix}\right)+o(\|y\|).$$ Um das Verhalten von Lösungen der DGl nahe der stationären Lösung $s_1$ zu verstehen, gilt es also, die allgemeine Lösung $$u(t)=e^{At}x_0$$ der linearen Differentialgleichung $\dot{z}=Az$ für nicht-diagonale Matrizen $A$ zu dechiffrieren.

Die allgemeine Lösung dieses Problems benutzt zwei Ingredienzien. Wir beginnen mit den Rechenregeln für die Exponentialfunktion von Matrizen.

7.4.2 Lemma. Es gelten folgende Rechenregeln für $n\times n$-Matrizen mit Einträgen im Körper $\mathbb K$.

  1. Kommutieren die Matrizen $A$ und $B$, so gilt $$\exp(A+B)=\exp(A)\cdot\exp(B).$$ Insbesondere ist die Matrix $\exp(A)$ invertierbar und es gilt $\exp(0)=1$.
  2. Für invertierbare Matrizen $T$ gilt $$T^{-1}\exp(A)T=\exp(T^{-1}AT).$$

Beweis.

  1. Kommutieren die Matrizen $A$ und $B$, so gilt die binomische Formel $$(A+B)^n=\sum_{k=0}^n{n\choose k} A^{n-k}B^k$$ und die Argumentation aus dem ersten Semester kann unverändert übernommen werden.
  2. Setzen wir die Gleichung $$T^{-1}A^2T=T^{-1}AAT=T^{-1}ATT^{-1}AT=\left(T^{-1}AT\right)^2$$ und allgemeiner $$T^{-1}A^nT=\left(T^{-1}AT\right)^n$$ in die Exponentialreihe ein, so erhalten wir $$T^{-1} \exp (A) T= T^{-1} \left(\sum^{\infty}_{n=0}\;
    \frac{A^n}{n!}\right)T=
    \sum^{\infty}_{n=0}\;\frac{(T^{-1} A T)^n}{n!} = \exp (T^{-1} A
    T).
    $$

qed

Der zweite wichtige Beitrag kommt aus der linearen Algebra. Zuerst einmal der Schlüsselbegriff.

Definition. Eine $a\times a$-Matrix der Form \[J_a(\lambda)=
\begin{pmatrix}
\lambda&1 & & & & & \\
&\lambda&1 & & & & \\
& &\lambda&1 & & & \\
& & &\ddots& \ddots & & \\
& & &&\ddots& 1 & \\
& & & & &\lambda& 1 \\
& & & & & &\lambda
\end{pmatrix}
\] heißt Jordankästchen zum Eigenwert $\lambda$ und Exponenten $a$.

Es folgt der Schlüsselsatz.

7.4.3. Satz über die Jordansche Normalform. Es sei $\phi$ Endomorphismus eines endlich dimensionalen Vektorraums, dessen charakteristisches Polynom in Linearfaktoren zerfällt
\[\chi=(X-\lambda_1)^{e_1}(X-\lambda_2)^{e_2}\cdot\ldots\cdot
(X-\lambda_r)^{e_r}.\] Dann gibt es eine Basis von $V$, bezüglich derer die Abbildung $\phi$ beschrieben wird durch eine Matrix folgender Gestalt:
\[\left(\begin{array}{cccc}
\kappa_1&0&\ldots&0\\
0&\kappa_2&&\vdots\\
\vdots&&\ddots&0\\
0&\ldots&0&\kappa_k
\end{array}\right)
\]mit Jordankästchen $\kappa_i$. Bis auf die Reihenfolge sind diese Jordankästchen eindeutig bestimmt. Sind die unter den $\kappa_i$, $i\le k$ auftauchenden Jordankästchen zu einem fixierten Eigenwert $\lambda$ von der Form $J_{a_1}(\lambda),\ldots, J_{a_s}(\lambda)$, so ist die Summe der Exponenten $a_1+\ldots+a_s$ gleich dem Exponenten, mit dem der Linearfaktor $(X-\lambda)$ im charakteristischen Polynom erscheint.

Der Fundamentalsatz der Algebra besagt, dass jedes komplexe Polynom in Linearfaktoren zerfällt. Insbesondere lässt sich jeder komplexe Endomorphismus bezüglich einer geeigneten Basis durch eine Matrix in Jordanscher Normalform darstellen. Anders ausgedrückt: Zu jeder komplexen Matrix $A$ gibt es eine Basiswechselmatrix $S$, so dass die Matrix $$B=S^{-1}AS$$ Jordansche Normalform besitzt. Die Spalten der Matrix $S$ sind die im Satz genannten Basisvektoren, bezüglich derer der Endomorphismus durch die Matrix $B$ dargestellt wird.

Aus diesen Zutaten können wir eine vollständige Lösung der DGl $\dot{x}=Ax$ für eine beliebige reelle oder komplexe $n\times n$-Matrix $A$ explizit darstellen. Die Matrix $A$ beschreibt einen Endomorphismus von $\mathbb K^n$ bezüglich der Standardbasis. Zuerst müssen wir mit Hilfe der linearen Algebra die Basisvektoren $s_1,\ldots,s_n$, bezüglich derer dieser Endomorphismus durch eine Matrix $B$ in Jordanscher Normalform dargestellt wird, finden. Es sei $S$ die Matrix mit Spalten bestehend aus eben diesen Basisvektoren. Dann gilt $S^{-1}AS=B$ oder äquivalent $$AS=SB.$$ Aus unseren Rechenregeln für die Exponentialfunktion schließen wir $$\exp(At)S=S\exp(Bt)$$ für alle $t\in \mathbb R$. Diese Gleichung liefert, so will ich im Folgenden darlegen, eine vollständige Lösung der DGl $\dot{x}=Ax$. Da jeder Anfangswert $x_0$ zum Zeitpunkt $t=0$ eine Linearkombination $x_0=\sum \mu_ks_k$ der Spalten von $S$ ist, ist die Lösung der DGl die entsprechende Linearkombination der Spalten der Matrix $\exp(At)S=S\exp(Bt)$.
Die linke Seite dieser Matrixgleichung lässt sich im Allgemeinen schwer ausrechnen. Anders aber die rechte Seite. Für eine Matrix $B$ in Jordan-Form gilt nämlich offenbar $$\exp(Bt)=\exp \left(\left(\begin{array}{cccc}
\kappa_1&0&\ldots&0\\
0&\kappa_2&&\vdots\\
\vdots&&\ddots&0\\
0&\ldots&0&\kappa_k
\end{array}\right)t\right)= \left(\begin{array}{cccc}
\exp(\kappa_1t)&0&\ldots&0\\
0&\exp(\kappa_2t)&&\vdots\\
\vdots&&\ddots&0\\
0&\ldots&0&\exp(\kappa_kt)
\end{array}\right).$$ Wir müssen also nur noch die Exponentialfunktion von Jordanblöcken berechnen.

7.4.4. Lemma. Es sei $B=J_{a+1}(\lambda)$ Jordankästchen zum Eigenwert $\lambda$ und Exponenten $a+1$. Dann ist $\exp (Bt)$ von der Form
$$
\exp(Bt)= \exp(\lambda t) \left(\begin{array}{cccccccc}
1& \frac{t}{1!}&\frac{t^2}{2!}&\frac{t^3}{3!}&&\ldots&& \frac{t^a}{a!}\\
0&1& \frac{t}{1!}&\frac{t^2}{2!}&\frac{t^3}{3!}&&&\\
0&0&1& \frac{t}{1!}&\frac{t^2}{2!}&\frac{t^3}{3!}&&\\
&&\ddots&1& \frac{t}{1!}&\frac{t^2}{2!}&\ddots&\vdots\\
&&&\ddots&\ddots&\ddots&\ddots&\\
\vdots&&&&\ddots&\ddots&\ddots&\\
&&&&&\ddots&\ddots&\frac{t}{1!}\\
0&&\ldots&&&0&0&1
\end{array}\right)
$$

Beweis. Das Jordankästchen zerlegt sich als Summe \[J_{a+1}(\lambda)=\lambda {\mathbb I}_n+J_{a+1}(0).\] Die Matrix $N=J_{a+1}(0)$ ist mit Einsen in der oberen Nebendiagonalen besetzt und mit Nullen sonst. Sie beschreibt die Abbildung, die den Standardeinheitsvektor $e_{k+1}$ auf $e_{k}$ abbildet für $k\leq a$ und $e_{1}$ auf Null. Das Quadrat $N^2$ dieser Matrix ist mit Einsen in der zweiten oberen Nebendiagonalen bestückt und mit Nullen sonst. Sie beschreibt den Homomorphismus, der $e_{k+2}$ auf $e_{k}$ abbildet für $k\le a-1$. Die Matrix $N^k$ besitzt Einsen in der $k$-ten oberen Nebendiagonale und Nullen sonst. Da das $\lambda$-Vielfache der Einheitsmatrix mit jeder Matrix kommutiert, erhalten wir
\[exp(Bt)= exp(\lambda t)\;exp(Nt)=exp(\lambda t)
\left(\sum_{k=0}^{a}\frac{t^k}{k!}N^k\right).\]qed

Dieses Programm im Einzelnen durchzuführen, kann mühevoll werden. Wir wollen uns auf das eingangs erwähnte Beispiel einer Matrix der Form $$A=\left(\begin{matrix} 0&-\frac{\alpha_1\beta_2}{\beta_1}\\ \frac{\alpha_2\beta_1}{\beta_2}&0\end{matrix}\right)$$ beschränken mit $\alpha_i,\beta_j\gt 0$. Das charakteristische Polynom ist von der Form $X^2+\alpha_1\alpha_2$. Die Eigenwerte der Matrix sind folglich gleich $\pm i\gamma$ mit $\gamma=\sqrt{\alpha_1\alpha_2}$. Die Vektoren $$s={{\beta_2\sqrt{\alpha_1}}\choose {-i\beta_1\sqrt{\alpha_2}}}\quad\text{ und }\quad \overline{s}={{\beta_2\sqrt{\alpha_1}}\choose {i\beta_1\sqrt{\alpha_2}}}$$ sind Eigenvektoren zu den Eigenwerten $i\gamma$ und $\overline{i\gamma}$. Die Matrixgleichung $AS=SB$ konkretisiert sich in diesem Beispiel also zur Gleichung
$$\left(\begin{matrix} 0&-\frac{\alpha_1\beta_2}{\beta_1}\\ \frac{\alpha_2\beta_1}{\beta_2}&0\end{matrix}\right)
\left(\begin{matrix} \beta_2\sqrt{\alpha_1} &\beta_2\sqrt{\alpha_1}\\ -i\beta_1\sqrt{\alpha_2}&i\beta_1\sqrt{\alpha_2}\end{matrix}\right)
=
\left(\begin{matrix} \beta_2\sqrt{\alpha_1} &\beta_2\sqrt{\alpha_1}\\ -i\beta_1\sqrt{\alpha_2}&i\beta_1\sqrt{\alpha_2}\end{matrix}\right)
\left(\begin{matrix} i\gamma&0\\ 0&-i\gamma\end{matrix}\right).$$ Für die Lösungsmatrix erhalten wir somit $$
\exp(At)S=S\exp(Bt)=
\left(\begin{matrix} \beta_2\sqrt{\alpha_1} &\beta_2\sqrt{\alpha_1}\\ -i\beta_1\sqrt{\alpha_2}&i\beta_1\sqrt{\alpha_2}\end{matrix}\right)
\left(\begin{matrix} e^{i\gamma}&0\\ 0&e^{-i\gamma}\end{matrix}\right)=
\left(\begin{matrix} \beta_2\sqrt{\alpha_1} e^{i\gamma}&\beta_2\sqrt{\alpha_1}e^{-i\gamma}\\ -i\beta_1\sqrt{\alpha_2}e^{i\gamma}&i\beta_1\sqrt{\alpha_2}e^{-i\gamma}\end{matrix}\right) .$$ Diese Gleichung können wir duch Multiplikation von rechts mit der Matrix $$S^{-1}=
\left(\begin{matrix} \frac1{2\beta_2\sqrt{\alpha_1}} &\frac{i}{2\beta_1\sqrt{\alpha_2}}\\
\frac1{2\beta_2\sqrt{\alpha_1}}&\frac{-i}{2\beta_1\sqrt{\alpha_2}}\end{matrix}\right) $$ noch verschönern zum Endresultat $$
\exp(At)\left(\begin{matrix} 1&0\\ 0&1\end{matrix}\right)=
\left(\begin{matrix} \cos(\gamma t) &\frac{\beta_2\sqrt{\alpha_1}}{\beta_1\sqrt{\alpha_2}} \sin(\gamma t)\\
-\frac{\beta_1\sqrt{\alpha_2}}{\beta_2\sqrt{\alpha_1}} \sin(\gamma t)&\cos(\gamma t)\end{matrix}\right).$$ Diese Gleichung sollte man folgendermaßen interpretieren: Die Lösung der Differentialgleichung $\dot{x}=Ax$ zum Anfangswert $(t_0,x_0)=\left(0,{1\choose 0}\right)$ ist $$u(t)=
\left(\begin{matrix} \cos(\gamma t) \\
-\frac{\beta_1\sqrt{\alpha_2}}{\beta_2\sqrt{\alpha_1}} \sin(\gamma t)\end{matrix}\right).
$$ Die Lösung zum Anfangswert $(t_0,x_0)=\left(0,{0\choose 1}\right)$ hat die Formel $$v(t)=
\left(\begin{matrix} \frac{\beta_2\sqrt{\alpha_1}}{\beta_1\sqrt{\alpha_2}} \sin(\gamma t)\\
\cos(\gamma t)\end{matrix}\right).
$$ Die allgemeine Lösung zum Anfangswert $(t_0,x_0)=\left(0,{a\choose b}\right)$ ist dann beschrieben durch die Formel $$a\,u(t)+b\,v(t).$$

Unterstützt von Drupal