Lineare Differentialgleichungssysteme mit konstanten Koeffizienten

Eine Differentialgleichung ist ein Ausdruck der Form
$$
D(t,f,f', f'',\ldots)=0,
$$ wo $D(x_0,\ldots x_n)$ eine Funktion in den Variablen $x_0\ldots x_n$ ist und $f,f',\ldots$ reelle (oder komplexe) Funktionen in einer Variablen $t$ bzw. ihre Ableitungen sind. Beispiele sind zuhauf in der Physik zu finden. Zum Beispiel beschreibt die Differentialgleichung
$$
\ddot{r}=-\gamma m\frac{r}{|r|^3}
$$ die Bewegung eines Teilchens im Schwerefeld eines ruhenden Objekts mit Masse $m$ relativ zu diesem Objekt. Die auftretende Konstante $\gamma$ heißt Gravitationskonstante. Die Bewegung eines Planeten um die Sonne ist durch diese Gleichung bestimmt (wenn man die restlichen, im Weltraum umherschwirrenden Objekte der Einfachheit halber unterschlägt und wegen ihrer großen Masse den Schwerpunkt des Systems in die Sonne legt).

Die Bewegungen mehrerer Objekte durch die Massenanziehung werden nach Newton beschrieben durch die Differentialgleichungen
$$
m_i\ddot{r}^i=\sum_{j\ne i}\gamma m_i
m_j\frac{r^j-r^i}{|r^j-r^i|^3}.$$ Schon im Falle von drei Körpern ist die allgemeine Lösung dieses Differentialgleichungssystems nicht bekannt.

Wir wollen uns hier mit einer ganz speziellen Sorte von Differentialgleichungen beschäftigen, mit linearen Differentialgleichungssystemen erster Ordnung. Gesucht sind $n$ Funktionen $f_j:\mathbb R\to {\mathbb K}$, mit ${\mathbb K}\in \{\mathbb R,\mathbb C\}$ und $1\le j\le n$, in einer Variablen $t\in \mathbb R$, deren erste Ableitungen Linearkombinationen ihrer selbst sind:
$$
f'_i=\frac{{\mathrm d}f}{{\mathrm d}t}=\sum^n_{j=1} a_{i j} f_ j
$$ mit $i,j=1,\ldots, n$ und $a_{i j}\in \mathbb C$. Diese $n$ Differentialgleichungen fassen wir in Vektorschreibweise zusammen
$$
f'=A\cdot f,
$$ mit der Matrix $A=(a_{i j})$ und den Spaltenvektoren
$$
f=\begin{pmatrix}f_1\\
\vdots\\
f_n
\end{pmatrix},\; f'=\begin{pmatrix}f'_1\\
\vdots\\
f'_n
\end{pmatrix}.
$$
Beispiel: Das Kapital $f$ wird als Funktion der Zeit betrachtet. Wird das Kapital angelegt und mit einem festen Satz $\lambda$ kontinuierlich verzinst, so beschreibt die Gleichung $f'=\lambda f$ die zeitliche Entwicklung des Kapitals. Diese Differentialgleichung besitzt, abhängig vom Anfangswert $f_0$ zu einem gegebenem Zeitpunkt $t_0$, eine eindeutige Lösung, nämlich \[f(t)=f_0e^{\lambda(t-t_0)}.\]

Eine Lösung der Differentialgleichung zu einem Anfangswert $f_0$ ist eine vektorwertige Funktion
\[F:\mathbb R\to {\mathbb K}^n,\quad F:t\mapsto F(t)\] mit $F(0)=f_0$ und $F'(t)=A\cdot F(t)$.

Wir wollen uns zuerst klarmachen, dass so ein lineares Differentialgleichungssystem Lösungen besitzt und diese bei gegebenen Anfangswerten $f_0$ eindeutig sind. Danach wollen wir die Jordansche Normalform benutzen, um Lösungen konkret zu berechnen. In der Vorlesung Analysis sind alle erforderlichen Hilfsmittel bereitgestellt.

Wir wollen uns zuerst einen Überblick über das Beweiskonzept verschaffen, bevor wir uns mit den Details beschäftigen.
Zuerst einmal betrachten wir einen geeigneten Raum von Funktionen, der die gesuchten Lösungen des DGl-Systems, so welche existieren, auch enthält. Ein solcher Raum ist zum Beispiel der Raum
$$
V= C^0 ([a,b],{\mathbb K}^n)
$$ der ${\mathbb K}^n$-wertigen stetigen Funktionen auf einem Intervall $[a,b]$. Dieser Raum $V$ ist ein $\mathbb K$-Vektorraum. Wir können ihn mit der Supremumsnorm versehen:
\[\|.\|_\infty:V\to\mathbb R;\quad \|f\|_\infty:=
\sup_{t\in[a,b]}\|f(t)\|_1.\] Hier sei $\|x\|_1=|x_1|+|x_2|+\ldots+|x_n|$ die sogenannte $1$-Norm im ${\mathbb K}^n$.

Allgemein ist eine Norm auf einem $\mathbb K$-Vektorraum $W$ eine Abbildung
\[\|.\|:W\to \mathbb R,\] für die gilt:

  1. $\|w\|\ge 0$ für $w\in W$ und $\|w\|=0$ genau dann, wenn gilt $v=0$.
  2. $\|\lambda w\|=|\lambda|\,\|w\| $ für $\lambda\in {\mathbb K}$ und $w\in W$.
  3. (Dreiecksungleichung) $\|w+w'\|\leq \|w\|+\|w'\|$.

Der Vektorraum $V$, versehen mit dieser Norm, ist vollständig: Ist $f_i\in V$ eine Cauchyfolge, so konvergiert sie gegen eine Grenzfunktion $f$, die wegen des Satzes über die gleichmäßige Konvergenz wiederum in $V$ liegt.

Herzstück des Beweises ist die Konstruktion einer Abbildung (man sagt auch eines Operators) $P\colon V\to V$ mit den folgenden Eigenschaften

  1. Es gilt $P(f)=f$ genau dann, wenn $f$ Lösung des DGl-Systems $f'(t)= A\cdot f(t)$ mit Anfangswert $f(t_0)=f_0$ ist und $t\in [a,b]$.
  2. $P$ ist kontrahierend, d.h. \[\|P(g_1)- P(g_2)\|_\infty\le K\|g_1-g_2\|_\infty\quad\text{mit} \, K< 1\, \big(\text{z.B. } K=\frac{1}{2}\big).\]

Wie hilft uns das weiter?
Wir nehmen an, wir hätten einen solchen Operator $P$ gegeben. Ausgehend von einer beliebigen Funktion $g\in V$ betrachten wir die Folge $g=g_0, g_1 =P(g), g_2=P^2(g),\ldots$. Diese ist eine Cauchy-Folge. Denn sei $\varepsilon$ eine Toleranzgrenze, so ist
\begin{align*}
\|P^n(g)-P^m(g)\|_\infty
&\le\|P^n(g)-P^{n+1}(g)\|_\infty+
\ldots+\|P^{m-1}(g)-P^m(g)\|_\infty\\
&\le\big(K^n+K^{n+1}+\ldots+K^{m-1}\big)\cdot \|g-P(g)\|_\infty\\
&\le K^n\cdot\frac{1}{1-K}\cdot
\big(\|g\|_\infty+\|P(g)-P(0)\|_\infty+\|P(0)\|_\infty\big)\\
&\le
\frac{K^n(1+K)}{1-K}\big(\|g\|_\infty+\|P(0)\|_\infty\big)
\end{align*} Wählen wir $N$ so groß, dass $\frac{K^N(1+K)}{1-K}\big(\|g\|_\infty+\|P(0)\|_\infty\big) < \varepsilon$ gilt, so ist $\|g_n-g_m\|_\infty\le \varepsilon$ für alle $n,m\ge N$. Wir haben es also mit einer Cauchy-Folge zu tun.

Die Grenzfunktion $f$ der Folge $(g_n),n\in \mathbb N$ erfüllt die Gleichung $f=P(f)$, ist also wegen 1) eine Lösung des DGl-Systems zum Anfangswert $f_0$. Ist nun $\hat{f}$ eine weitere Lösung des DGl-Systems mit Anfangswert $f_0$, so gilt
$$
\|f-\hat{f}\|_\infty=\|P(f)-P(\hat{f})\|_\infty\le
K\|f-\hat{f}\|_\infty.
$$ Da $K < 1$ ist, kann das aber nur sein, wenn $\|f-\hat{f}\|_\infty=0$ ist, also $f=\hat{f}$.

Satz. Ein lineares Differentialgleichungssystem $f'=A f$ besitzt zu gegebenem Anfangswert $f(0)=f_0$ eine eindeutige Lösung $f(t)$.

Linearkombinationen $\lambda f+\mu g$ von Lösungen des Differentialgleichungssystems sind wiederum Lösungen zu den Anfangswerten $\lambda f_0 +\mu g_0$. Insgesamt liefert der Satz also einen Vektorraumisomorphismus zwischen dem (reellen oder komplexen) Vektorraum der Anfangswerte und dem Vektorraum der Funktionen $f$, die die Gleichung $f'=Af$ erfüllen.

Beweis. Um diesen Satz zu beweisen, werden wir einen Operator $P$ mit obigen Eigenschaften konstruieren. Im Beweis brauchen wir Abschätzungen und dazu brauchen wir Normen in den verschiedenen zu betrachtenden Räumen. Sei $A$ eine $n\times m$-Matrix mit komplexen Einträgen. Wir setzen
$$
\|A\|_1:=\sum_{\substack{1 \le i \le n\\
1 \le j \le m}} |a_{i j}|
\quad \text{für } \quad A=(a_{i j}).
$$ Dann gilt für $A, B\in M_C(n, m)$ und $C\in M_C (m, r)$
\begin{eqnarray*}
\| A+B \|_1 & \le& \|A\|_1+\|B\|_1\\
\| A\cdot C\|_1&\le& \|A\|_1\cdot \|C\|_1,
\end{eqnarray*} denn
$$
\|A+B\|_1= \sum|a_{i j}+b_{i j}|\; \le\; \sum |a_{i j}| + \sum |b_{i j}|=\|A\|_1+\|B\|_1
$$ und
\begin{eqnarray*}
\|A\cdot C\|_1=\sum_{i,k}\left|\sum_{j
}a_{i j} c_{j k}\right|&\le&\sum_{i,j,k}| a_{i j}c_{j k}|
=\sum_{i,j,k}| a_{i j}|| c_{j k}|\\
&\le&
\sum_{i,j,k,l}|a_{ij}|| c_{lk}|=
\left(\sum_{i,j} |a_{ij}|\right)
\left(\sum_{k,l}|c_{lk}|\right)\\
&=& \|A\|_1 \cdot\|C\|_1.
\end{eqnarray*} Es sei nun $V= C^0([a,b],\mathbb C^n)$ und $P=V\to V$ der Operator, der einer Funktion $g\in V$ die Funktion
$$
\big(P(g)\big)(t): = f_0 + \int\limits^t_{t_0} A\cdot
g(\tau) d\tau
$$ zuordnet. Hier ist das Integral, genauso wie vorher das Differential, komponentenweise zu nehmen. Nach dem Hauptsatz der Differential- und Integralrechnung gilt für die Ableitung
$$
\big(P(g)\big)' (t) = A\cdot g(t).
$$ Somit erfüllt $g\in V$ die Differentialgleichung $g'=Ag$ genau dann, wenn $g=P(g)$ gilt. Das war der erste Streich. Seien nun $g_1, g_2\in V$. Dann ist
\begin{eqnarray*}
\| P(g_1)-P(g_2)\|_\infty&=&\left\|f_0+\int\limits^t_{t_0} A
g_1(\tau) d \tau - f_0-\int\limits^t_{t_0} A\cdot g_2 (\tau) d\tau\right\|_\infty\\
&=&
\left\|\int\limits^t_{t_0} A (g_1-g_2)(\tau) d \tau\right\|_\infty\\
&=&
\sup_{\substack{t\in[a, b]}}\left\|\int\limits^t_{t_0}
A(g_1-g_2)(\tau) d \tau\right\|_1\\
&\le&\sup_{\substack{t\in[a,
b]}}\int\limits^t_{t_0}\|A(g_1-g_2)(\tau)\|_1\, d
\tau\\
&\le& (b-a)\cdot \|A\|_1\cdot\|g_1-g_2\|_\infty.
\end{eqnarray*} Ist also $(b-a)=\frac{K}{\|A\|_1}$, so erfüllt $P$ die Bedingung 2). Somit haben wir in jedem Intervall $[a,b]$ der Länge kleiner als $\frac{K}{\|A\|_1}$ zu einem gegebenen Anfangswert bei $t_0\in[a,b]$ eine eindeutige Lösung der Differentialgleichung $f'= A f$ zu einem gegebenen Anfangswert $f(t_0)=f_0$.
Nun überdecken wir $\mathbb R$ mit sich überlappenden Intervallen der Länge $\frac{K}{\|A\|}$. Zu einem gegebenen Anfangswert $f_0=f(0)$ existiert in dem Intervall, das die Null enthält eine eindeutige Lösung $\tilde{f}$ mit $\tilde{f}(t_1)=f_1$, wenn $t_1$ im Durchschnitt des gegebenen Intervalls mit dem angrenzenden liegt. In diesem angrenzenden Intervall hat die Differentialgleichung $f'=A f$ wiederum eine eindeutige Lösung $\tilde{\tilde{f}}$ zum Anfangswert $f(t_1)=f_1$. Auf den Durchschnitt der Intervalle stimmen $\tilde{f}$ und $\tilde{\tilde{f}}$ überein (wiederum wegen der Eindeutigkeit der Lösung zum Anfangswert $f(t_1)=f_1$ auf dem Durchschnittsintervall). Insgesamt bekommen wir so eine Lösung auf der Vereinigung der beiden Intervalle. Induktiv setzen wir so die Lösung auf ganz $\mathbb R$ fort. qed

Der Beweis sieht auf den ersten Blick etwas abstrakt aus. Er lässt sich aber ganz konkret zur Konstruktion von Lösungen benutzen: Ist $A\in M_{\mathbb C}(n,n)$ eine quadratische komplexe Matrix, $f_0\in \mathbb C^n$ ein Anfangswert zur Differentialgleichung $f'=A f$, so konstruieren wir die Lösung zu dieser Differentialgleichung induktiv, als Grenzwert der Folge $g_n=P^n(g)$. Wir starten mit der konstanten Funktion $g_{0}=f_0$ und erhalten:
\begin{eqnarray*}
g_1(t)&=&f_0+\int^t_0 Af_0\, d \tau = f_0+tAf_0\\
g_2(t)&=&f_0+\int^t_{0} A(f_0+\tau A f_0)\,d
\tau=\left({\mathbb I}_n+t
A+\frac{t^2}{2}A^2\right)f_0 \\
&\vdots&\\
g_n(t)&=&f_0+\int^t_0 A\left({\mathbb I}_n+\tau A +
\frac{\tau^2}{2}A^2+\ldots+\frac{\tau^{n-1}}{n-1}A^{n-1}\right)
f_0\,d \tau
=\sum^n_{k=0}\frac{(tA)^k}{k!} f_ 0
\end{eqnarray*} und somit erhalten wir als Lösung der Differentialgleichung:
\[f(t)=\sum^{\infty}_{k=0}\frac{(tA)^k}{k!}
f_0.\]

Die Exponentialreihe einer quadratischen Matrix $B$ ist
$$\exp\,
B=\sum^{\infty}_{n=0}\frac{B^n}{n!}.$$ Die Partialsummen
$$
\sum^N_{n=0}\frac{B^n}{n!}
$$ beschreiben jeweils wieder quadratische Matrizen. Die Einträge dieser Matrix an der $(i, j)$-ten Stelle will ich lieber nicht versuchen, in einer Formel darzustellen. Wir wollen uns vergewissern, dass die Reihe $\exp (B)$ für jedes $B\in M_\mathbb C(n,n)$ tatsächlich konvergiert, d.h. in jedem $(i,j)$-ten Eintrag seperat konvergiert.

Es sei $p_{ij}$ der $(i,j)$-te Eintrag in der Partialsumme
\[\sum^M_{n=N}\frac{B^n}{n!}.\] Für diesen Eintrag erhalten wir eine Abschätzung
\[
|p_{ij}|\le\left\|\sum^M_{n=N}\frac{B^n}{n!}\right\|_1\le
\sum^M_{n=N}\frac{\|B^n\|_1}{n!}\le\sum ^M_{n=N}
\frac{\|B\|_1^n}{n!}.\] Die drei Ungleichungen basieren nacheinander auf der Definition der $1$-Norm, der Dreiecksungleichung und der Verträglichkeit der $1$-Norm mit der Matrizenmultiplikation. Wählen wir $N\ge
2\|B\|_1$, so erhalten wir:
\begin{eqnarray*}
|p_{i j}|\;\le\;
\sum^M_{n=N}\frac{\|B\|_1^n}{n!}
&\le&\frac{\|B\|_1^{N}}{N!}\cdot
\sum^{M-N}_{n=0}\left(\frac{\|B\|_1}{N}\right)^n
\leq \frac{\|B\|_1^{N}}{N!}\cdot
\sum^{M-N}_{n=0}\left(\frac{1}{2}\right)^n <
\frac{2\|B\|_1^{N}}{N!}.
\end{eqnarray*} Somit ist die Reihe absolut konvergent. Die Reihe $\exp$ stellt damit eine (stetige, differenzierbare, analytische) Funktion dar:
\begin{align*}
\exp\colon M_{\mathbb C}(n,n)&\to M_C(n,n)\\
B &\mapsto \exp (B).
\end{align*}

Lemma. Es gelten die Rechenregeln:

  1. Kommutieren die Matrizen $A$ und $B$, so gilt
    \[\exp (A+B)=\exp (A)\cdot \exp(B).\] Insbesondere ist $\exp(A)$ invertierbar und $\exp (0)={\mathbb I}_n.$
  2. Für invertierbare Matrizen $T\in G l_{\mathbb C}(n)$ gilt \[T \exp(A) T^{-1}=\exp (T A T^{-1}).\]

Beweis. Es gibt einen Punkt, in dem sich das Argument von dem ansonsten analogen Argument bei der eindimensionalen Exponentialfunktion unterscheidet: Im Allgemeinen ist
$$
(A+B)^n\not=\sum^n_{k=0}{n\choose k} A^{n-k}B^k.
$$ Schon beim quadratische Term ist die Gleichheit
\begin{align*}
(A+B)^2&= A^2+A B+B A+B^2\\
&=A^2+2 A B+B^2
\end{align*} genau dann gegeben, wenn $A$ und $B$ kommutieren. Falls gilt $AB=BA$, so ist die weitere Argumentation aus der Analysis vertraut:
$$
\sum^{\infty}_{n=0}\;\frac{1}{n!}\;
(A+B)^n=\sum^{\infty}_{n=0}\;\frac{1}{n!} \sum_{p+q=n}
{n\choose p} A^p B^q.
$$ Wegen absoluter Konvergenz in allen Einträgen können wir die Summation vertauschen:
\[
=\sum^{\infty}_{p=0}\;\sum^{\infty}_{q=0}\;\frac{{p+q\choose
p}}{(p+q)!} A^p B^q
=\sum^{\infty}_{p=0}\;\sum^{\infty}_{q=0}\frac{A^p}{p!}\;\frac{B^q}{q!}
=\left(\sum^{\infty}_{p=0}\frac{A^p}{p!}\right)
\left(\sum^{\infty}_{q=0}\frac{B^q}{q!}\right).
\] Die Gleichung $\exp (A)\exp (-A)=\exp(0)={\mathbb I}_n$ zeigt $\exp(A)\in Gl_{\mathbb C}(n)$. Setzen wir die Gleichung \[TA^2T^{-1}=TA\,AT^{-1}=
TAT^{-1}TAT^{-1}=(TAT^{-1})^2\] und allgemeiner
\[
TA^nT^{-1} =(T A T^{-1})^n
\] in die Exponentialreihe ein, so erhalten wir
$$
T \exp (A) T^{-1}= T \left(\sum^{\infty}_{n=0}\;
\frac{A^n}{n!}\right)T^{-1}=
\sum^{\infty}_{n=0}\;\frac{(T A T^{-1})^n}{n!} = \exp (T A
T^{-1}).
$$qed

Die Reihe $\exp(A)$ für beliebige Matrizen auszurechnen, erscheint auf den ersten Blick mühsam. Wir können aber wie folgt vorgehen: Wir berechnen $\exp(A)$ zuerst für Matrizen in Jordanscher Normalform. Ist $A$ beliebig, so finden wir ein $T\in G l_{\mathbb C}(n)$ so dass $\tilde{A} = T^{-1} A T$ in Jordanscher Normalform ist. Dann ist $\exp (A)$ beschrieben durch
$$
\exp(A)=\exp(T \tilde AT^{-1})=
T \exp (\tilde{A}) T^{-1}.
$$
Lemma. Es sei $A=J_{a+1}(\lambda)$ Jordankästchen zum Eigenwert $\lambda$ und Exponenten $a+1$. Dann ist $\exp (tA)$ von der Form
$$
\exp(tA)= \exp(\lambda t) \left(\begin{array}{cccccccc}
1&0&&&\ldots&&&0\\
\frac{t}{1!}&1&&&&&&\\
\frac{t^2}{2!}&\frac{t}{1!}&1&&&&&\\
\frac{t^3}{3!}&\frac{t^2}{2!}&\frac{t}{1!}&1&&&&\vdots\\
&\ddots&\ddots&\ddots&\ddots&&&\\
\vdots&&\ddots&\ddots&\ddots&\ddots&&\\
&&&\ddots&\ddots&\ddots&\ddots&0\\
\frac{t^a}{a!}&&\ldots&&
\frac{t^3}{3!}&\frac{t^2}{2!}&\frac{t}{1!}&1
\end{array}\right)
$$

Beweis. Das Jordankästchen zerlegt sich als Summe
\[J_{a+1}(\lambda)=\lambda {\mathbb I}_n+J_{a+1}(0).\] Die Matrix $N=J_{a+1}(0)$ ist mit Einsen in der unteren Nebendiagonalen besetzt und mit Nullen sonst. Sie beschreibt die Abbildung, die den $k$-ten Standardeinheitsvektor $e_k$ auf $e_{k+1}$ abbildet für $k\leq a$ und $e_{a+1}$ auf Null. Das Quadrat $N^2$ dieser Matrix ist mit Einsen in der zweiten unteren Nebendiagonalen bestückt und mit Nullen sonst: Sie beschreibt den Homomorphismus, der $e_k$ auf $e_{k+2}$ abbildet für $k\le a-1$. Die Matrix $N^k$ besitzt Einsen in der $k$-ten unteren Nebendiagonale und Nullen sonst. Da $[\lambda{\mathbb I}_n,N]=0$ gilt, erhalten wir
\[exp(tA)= exp(t\lambda {\mathbb I}_n)\;exp(tN)=exp(t\lambda)
\left(\sum_{k=0}^{a}\frac{t^k}{k!}N^k\right).\]
qed

Wir fassen die Resultate der Diskussion zusammen:

Satz. Das lineare Differentialgleichungssystem erster Ordnung $f'=A f$ besitzt zum Anfangswert $f(0)=f_0\in\mathbb C^n$ die eindeutige Lösung
\[ f(t)=\exp (tA) f_0.\] Besitzt die Jordan-Normalform von $A$ Jordankästchen zu Eigenwerten $\lambda_1,\ldots,\lambda_r$ und Exponenten $a_1,\ldots, a_r$ und sei
\[v_{1,1}, v_{1,2},\ldots, v_{1,
a_1},\,\,v_{2,1}\ldots, v_{2, a_2},\,\,\ldots,
v_{r,a_r}\] eine Jordanbasis, so lässt sich die Lösung explizit beschreiben: Das Differentialgleichungssystem $f'=A f$ zum Anfangswert $ v_{j,k}$ hat als Lösung
\[
f(t)_{j,k} =\exp(\lambda_jt)
\sum^{a_j}_{l=k}\frac{t^{l-k}}{(l-k)!}v_{j,l}.
\] Die Lösung $f$ zu einem allgemeinen Anfangswert $f(0)=\sum_{j,k} \phi_{j, k} v_{j,k}$ ist Linearkombination dieser Fundamentallösungen:
\[f(t) =\sum_{j,k} \phi_{ j,k}f_{ j,k}(t).\]

Man kann dieses Resultat auch auf Differentialgleichungssysteme höherer Ordnung anwenden. Es soll hier nur der Fall einer einzigen Differentialgleichung
\[f^{(n+1)}+c_nf^{(n)}+\ldots+c_1f'+c_0f=0\] der Ordnung $n+1$ mit Konstanten $c_0,\ldots,c_n\in \mathbb C$ betrachtet werden. Hier steht $f^{(n)}$ für die $n$-te Ableitung einer Funktion $f$ in einer Variablen. Diese Differentialgleichung können wir in ein Differentialgleichungssystem erster Ordnung
\[F'=B(P)^tF,\] verwandeln, indem wir den Vektor $F$ definieren als das $n$-Tupel
\[F=\begin{pmatrix} f\\f'\\f''\\
\vdots\\f^{(n)}\end{pmatrix}\] der Ableitungen von $f$. Die Matrix $B(P)$ erkennen wir wieder als die Begleitmatrix des Polynoms
\[P=X^{n+1}+c_nX^n+\ldots +c_1X+c_0.\]

Beispiel. Die Wellengleichung $f''+c^2 f =0$ mit $c\in \mathbb R$ führt zum Differentialgleichungssystem
$$
{f\choose f'}' = \begin{pmatrix}
0&1\\
-c^2&0 \end{pmatrix} {f\choose f'}
$$ oder kurz $F'=AF$. Die Matrix $A$ ist, wie schon bemerkt, die Transponierte der Begleitmatrix $B(X^2+c^2)$. Ihre Eigenwerte sind $\pm ic$. Die Lösung zum Anfangswert $F(0)$ ist gegeben durch $$F(t)=\exp(At)F(0).$$ Es gibt verschiedene Fälle zu betrachten:

  1. Ist $c\ne 0$, so sind die Spalten der Matrix
    \[S=\begin{pmatrix}1&ic\\
    ic&c^2\end{pmatrix}\] Eigenvektoren von $A$ zu den Eigenwerten $\pm ic$. Es gilt wegen $$S^{-1}AS=\begin{pmatrix}ic&0\\
    0&-ic\end{pmatrix}$$ und damit \begin{align*}
    \exp(At)&=S\begin{pmatrix}e^{ict}&0\\ 0&e^{-ict}\end{pmatrix}S^{-1}\\
    &=\frac1{2c^2}\begin{pmatrix}1&ic\\
    ic&c^2\end{pmatrix} \begin{pmatrix}e^{ict}&0\\ 0&e^{-ict}\end{pmatrix} \begin{pmatrix}c^2&-ic\\
    -ic&1\end{pmatrix}\\
    &=\begin{pmatrix}\cos(ct)&\frac1c\sin(ct)\\ -c\sin(ct)&\cos(ct)\end{pmatrix}
    .\end{align*} Die Wellengleichung besitzt die beiden Funktionen $e^{ict}$ und $e^{-ict}$ als Fundamentallösungen. Zu Anfangsbedingungen $f(0)= a$ und $f'(0)=b$ erhalten wir die Lösung
    \begin{align*}
    \begin{pmatrix}f(t)\\f'(t)\end{pmatrix}& =\begin{pmatrix}\cos(ct)&\frac1c\sin(ct)\\ -c\sin(ct)&\cos(ct)\end{pmatrix}\begin{pmatrix}a\\b\end{pmatrix}\\&=\begin{pmatrix}a\cos(ct)+\frac{b}c\sin(ct)\\-ac\sin(ct)+b\cos(ct)\end{pmatrix}.
    \end{align*}
  2. Ist $c=0$, so gilt $$\exp(At)=\mathbb I_2 + At=\begin{pmatrix}1&t\\0&1\end{pmatrix}.$$ Die Lösung des Differentialgleichungssystems zu Anfangsbedingungen $f(0)=a$ $f'(0)=b$ ist also, wie erwartet, gegeben durch $$\begin{pmatrix}f(t)\\f'(t)\end{pmatrix} =\begin{pmatrix}1&t\\0&1\end{pmatrix}\begin{pmatrix}a\\b\end{pmatrix}=\begin{pmatrix}a+bt\\b\end{pmatrix}.$$

Allgemein können wir eine lineare Differentialgleichung der Ordnung $n$ mit konstanten Koeffizienten vollständig lösen:

Satz. Das normierte Polynom $P=\sum_{k=0}^n c_k X^k\in \mathbb C[X]$ zerfalle in ein Produkt \[P=\prod_{l=1}^r(X-\lambda_l)^{a_l}\] mit paarweise teilerfremden Nullstellen $\lambda_l$. Dann besitzt die lineare Differentialgleichung \[f^{(n)}+c_{n-1}f^{(n-1)}+\ldots+c_1 f'+ c_0 f=0\] als Fundamentallösungen die Funktionen \[f_{l,m}=t^m\exp(\lambda_lt),\,\,l\leq r,\,\,0\leq m < a_l.\] Eine Lösung dieser Differentialgleichung ist vollständig bestimmt durch die Anfangswerte, bestehend aus dem Funktionswert $f(t_0)$ sowie den Werten der Ableitungen $f^{(k)}(t_0)$ der Ordnungen $k < n$ zu einem gegebenem Zeitpunkt $t_0$.

Beweis. Die Differentialgleichung $n$-ter Ordung wird durch das äquivalente Differentialgleichungssystem \[F'=B(P)^tF\] erster Ordnung beschrieben. Die Matrix $B(P)$ beschreibt eine zyklische Abbildung. In der zugehörigen Jordanschen Normalform gibt es folglich zu jedem Eigenwert genau ein Jordankästchen. Es gibt wegen des Satzes zur Existenz und Eindeutigkeit genau $n$ linear unabhängige Lösungsfunktionen. Die oben angegebenen $n$ linear unabhängigen Funktionen lassen sich alle als Linearkombinationen der im obigen Satz beschriebenen darstellen. Sie bilden also ein vollständiges Fundamentalsystem von Lösungen.
qed

Im Fall reeller Koeffizienten lassen sich auch reelle Lösungen auf diese Weise konstruieren. Wir benutzen dazu die bereits bewiesene Tatsache, dass ein nicht konstantes reelles Polynom in ein Produkt irreduzibler reeller Polynome vom Grad 1 und Grad 2 zerfällt.

Korollar Das normierte Polynom $P=\sum_{k=0}^n c_k X^k\in \mathbb R[X]$ zerfalle in ein Produkt \[P=\prod_{l=1}^r(X-\rho_l)^{a_l}\cdot \prod_{p=1}^s \left((X-\lambda_p)(X-\bar{\lambda}_p \right)^{b_p}\] mit paarweise verschiedenen reellen und komplexen Nullstellen $\rho_l$ und $\lambda_p=\xi_p+i\eta_p$ mit $\eta_p>0$. Dann besitzt die lineare Differentialgleichung \[f^{(n)}+c_{n-1}f^{(n-1)}+\ldots+c_1 f'+ c_0 f=0\] als Fundamentallösungen die reellwertigen Funktionen
\begin{align*}
f_{l,m}&=t^m\exp(\rho_lt),\,\,l\leq r,\,\,0\leq m < a_l\\
c_{p,q}&=t^q\exp(\xi_pt)\cos(\eta_p t),\,\,p\leq
s,\,\,0\leq
q < b_p\\
s_{p,q}&=t^q\exp(\xi_pt)\sin(\eta_p t),\,\,p\leq
s,\,\,0\leq q < b_p.
\end{align*} Eine Lösung dieser Differentialgleichung ist vollständig bestimmt durch die Anfangswerte, bestehend aus dem Funktionswert $f(t_0)$ sowie den Werten der Ableitungen $f^{(k)}(t_0)$ der Ordnungen $k < n$ zu einem gegebenem Zeitpunkt $t_0$.

Beweis. Die reellwertigen Funktionen
\begin{align*}
c_{p,q}& = \frac12 \left(t^q\exp(\lambda_p t)+
t^q\exp(\bar{\lambda}_pt)\right)\\
s_{p,q}& = \frac1{2i} \left(t^q\exp(\lambda_p
t)-t^q\exp(\bar{\lambda}_pt)\right)
\end{align*} sind Linearkombinationen von komplexwertigen Funktionen, die nach dem obigen Satz Lösungen der komplexwertigen Differentialgleichung sind und somit auch Lösungen. Die angegebenen $n$ Funktionen sind linear unabhängig und bilden folglich eine Basis des Raums der Lösungen der Differentialgleichung. qed

Unterstützt von Drupal