Eigenschaften und Berechnungsmethoden

Ist der Endomorphismus $f:V\to V$ bezüglich einer geordneten Basis $(b_1,\ldots,b_n)$ von $V$ durch eine quadratische $n\times n$-Matrix $A=(a_{ij})$ beschrieben, so gilt $f(b_j)=\sum_{i=1}^na_{ij}b_i$. Die Spalten in $A$ sind die Koordinaten der Bilder der Basis. Ist $\phi$ eine alternierende $n$-Form auf $V$ mit $\phi(b_1,\ldots,b_n)=1$, so lässt sich die Determinante über die Leibnizsche Formel berechnen
\[\det(f)=\phi(f(b_1),\ldots,f(b_n))=\sum_{\sigma\in S_n}\mathrm{sign}(\sigma) a_{\sigma(1),1}\cdots a_{\sigma(n),n}. \] Wir können die Determinante auch definieren für quadratische Matrizen, indem wir setzen
\[ \det(A):=\det(f).\] Das heißt, die Determinante einer quadratischen Matrix ist die Determinante des durch diese Matrix bestimmten Endomorphismus $K^n\to K^n$. Eine gebräuchliche Schreibweise für die Determinante einer Matrix ist
\[\det\left(
\begin{array}{ccc}a_{11}&\ldots&a_{1n}\\
\vdots&&\vdots\\
a_{n1}&\ldots&a_{nn}
\end{array}
\right)
=:
\left|
\begin{array}{ccc}a_{11}&\ldots&a_{1n}\\
\vdots&&\vdots\\
a_{n1}&\ldots&a_{nn}
\end{array}
\right|.
\]

Proposition. Für Determinanten von $n\times n$-Matrizen gelten folgende Rechenregeln:

  1. $\det(A\cdot B)=\det(A)\cdot \det(B).$
  2. $\det(A)=\det (A^t).$
  3. $\det({\mathbb I}_n)=1.$
  4. Die Spalten in $A$ sind genau dann linear abhängig, wenn $\det(A)=0$ gilt.
  5. Die Zeilen in $A$ sind genau dann linear abhängig wenn $\det(A)=0$ gilt.
  6. Entsteht die Matrix $A'$ aus $A$ durch Multiplikation einer Spalte (oder Zeile) mit $k\in K$, so gilt $\det(A')=k \det(A)$.
  7. Entsteht die Matrix $A'$ aus $A$ durch Vertauschen zweier Spalten (oder Zeilen), so gilt $\det(A')=-\det(A)$.
  8. Entsteht die Matrix $A'$ aus $A$ durch Addition eines Vielfachen einer Spalte (oder Zeile) zu einer anderen, so gilt $\det(A')= \det(A)$.

Beweis. Die einzelnen Rechenregeln ergeben sich aus der Konstruktion:

  1. Folgt sofort aus der Multiplikativität der Determinante von Endomorphismen.
  2. Ist $E$ eine Elementarmatrix, so auch die Transponierte $E^t$ und es gilt $\det(E)=\det(E^t)$. Ist $A$ Produkt von Elementarmatrizen, so ist $A^t$ der Transponierten dieser Elementarmatrizen, nur in umgekehrter Reihenfolge. Die Aussage folgt sofort.
  3. Offensichtlich gilt $\det({\mathbb I}_n)= \det(\mathrm{id}_{K^n})=1$.
  4. Sind die Spalten von $A$ linear unabhängig, so ist $A$ invertierbar. Aus der soeben gezeigten Multiplikativität folgt, dass auch $\det(A)$ invertierbar ist. Sind die Spalten von $A$ dagegen linear abhängig, so ist $A$ nicht invertierbar. Zerlegt man $A$ in ein Produkt von Elementarmatrizen, muss unter den Faktoren eine nicht invertierbare Elementarmatrix sein, also eine Streckung um den Faktor Null. Aus der Multiplikativität der Determinante folgt $\det(A)=0$.
  5. Folgt aus dem gerade Bewiesenen durch Übergang zur transponierten Matrix.

Die verbleibenden Eigenschaften folgen aus der Tatsache, dass die Determinante einer Matrix multilinear und alternierend in den Spalten der Matrix ist, zumal die Spalten der Matrix ja die Bilder der Basisvektoren beschreiben. Da die Determinante sich durch Transposition nicht ändert, ist die Determinante auch multilinear und alternierend in den Zeilen der Matrix.
qed

Die explizite Berechnung der Determinante einer $n\times n$-Matrix mittels der Leibnizschen Formel ist für kleines $n$ nicht weiter tragisch.

Beispiele.

  • Im Falle $n=1$ ist $A=(a)$ eine Zahl und $det(A)=a$.
  • Die symmetrische Gruppe $S_2$ besteht aus zwei Elementen, neben der Identität ist da noch die Transposition $\tau=(1,2)$. Die Determinante besitzt entsprechend zwei Summanden
    \[\left|
    \begin{array}{cc}a_{11}&a_{12}\\
    a_{21}&a_{22}
    \end{array}
    \right|=a_{11}a_{22}+\mathrm{sign}(\tau)a_{\tau(1),1}a_{\tau(2),2}
    =a_{11}a_{22}-a_{21}a_{12}.
    \]
  • Die sechs Elemente der Gruppe $S_3$ lassen sich schön auflisten: Es gibt die Identität, drei Transpositionen $(1,2)$, $(2,3)$ und $(3,1)$, sowie die beiden $3$-Zykel $(1,2,3)=(2,3)\circ(1,3)$ und $(3,2,1)=(1,3)\circ(2,3)$. Die Leibnizsche Formel ist in diesem Falle also die aus der Schule bekannte Regel von Sarrus.
    \begin{eqnarray*}
    \left|
    \begin{array}{ccc}a_{11}&a_{12}&a_{13}\\
    a_{21}&a_{22}&a_{23}\\
    a_{31}&a_{32}&a_{33}
    \end{array}
    \right|&=&\begin{cases} a_{11}a_{22}a_{33}+ a_{12}a_{23}a_{31}+
    a_{13}a_{21}a_{32}\\- a_{31}a_{22}a_{13}
    - a_{32}a_{23}a_{11}- a_{33}a_{21}a_{12}.\end{cases}
    \end{eqnarray*}
  • Bei $4\times 4$-Matrizen erhalten wir eine Formel mit $24$ Summanden, bestehend aus jeweils dem Produkt von vier Matrixeinträgen. Bei $5\times 5$-Matrizen sind es schon $120$ Summanden und so weiter. Diese Art der Berechnung wird mit wachsendem $n$ zunehmend umständlich.

Um die Determinante einer größeren Matrix auszurechnen, kann man auch induktiv vorgehen: Ist $A=(a_{ij})$ eine $n\times n$-Matrix, so bezeichne $A_{ij}$ die Matrix, die man aus $A$ durch Streichen der $i$-ten Zeile und der $j$-ten Spalte erhält.

Entwicklungssatz.
\[\det(A)=\sum_{i=1}^n(-1)^{i+j}a_{ij}\,\det(A_{ij}).\]
In dieser Summe werden nacheinander die Einträge der $j$-ten Spalte mit der Determinante der jeweilig komplementären Matrix multipliziert. Die Formel beschreibt die Entwicklung nach der $j$-ten Spalte. Nach Transposition der Matrix, die ja die Determinante nicht verändert, gibt es auch die analoge Entwicklung nach einer Zeile.

Beweis. Es bezeichne $\alpha_k$ die $k$-te Spalte in der Matrix $A=(\alpha_1,\ldots \alpha_n)$. Als Spaltenvektor ist $\alpha_j=\sum_{i=1}^na_{ij}e_i$ eine Linearkombination von den Standardeinheitsvektoren $e_i$. Es bezeichne $\tilde A_{ij}$ die Matrix, die aus $A$ entsteht, indem man die $j$-te Spalte durch den $i$-ten Einheitsspaltenvektor $e_i$ ersetzt
\[\tilde A_{ij}=
(\ldots,\alpha_{j-1},e_i,\alpha_{j+1},\ldots).\] Die Zuordnung $A\mapsto \det(A)$ ist, wie wir wissen, $n$-linear und alternierend in den Spaltenvektoren. Insbesondere ist die Abbildung linear in der $j$-ten Spalte, also
\[\det(A)=\sum_{i=1}^na_{ij}\det(\tilde A_{ij}).\] Zum Beweis des Entwicklungssatzes reicht es also zu zeigen $\det(\tilde A_{ij})=(-1)^{i+j}\det(A_{ij})$. Wieder benutzen wir die Tatsache, dass die Determinante alternierend multilinear sowohl in den Spalten wie auch in den Zeilen ist: Wenn wir zwei Spalten (oder zwei Zeilen) vertauschen, so ändert die Determinante das Vorzeichen. Um von $\tilde A_{ij}$ zur Matrix $(\alpha_1,\ldots,\alpha_{j-1},\alpha_{j+1},\ldots,\alpha_n,e_i)$ zu kommen, müssen wir $n-j$ solcher Vertauschungen vornehmen: Wir verschieben den Vektor $e_i$ zuerst durch Vertauschung mit dem Vektor $\alpha_{j+1}$ an die $j+1$-te Stelle, danach durch Vertauschung mit dem Vektor $\alpha_{j+2}$ an die $j+2$-te Stelle, und so weiter, bis zur $n$-ten Stelle. In der resultierenden Matrix vertauschen wir nun die $i$-te Zeile $n-i$-mal mit der jeweils darunter liegenden Zeile. Als Resultat erhalten wir die Matrix
\[\check{A}_{ij}=
\left(
\begin{array}{cccc}
& & &0\\
&A_{ij}& &\vdots\\
& & &0\\
\ast&\ldots&\ast&1
\end{array}
\right).
\] Von den Einträgen in der untersten Zeile interessiert nur der letzte. Wir haben, um zu dieser Matrix zu kommen, insgesammt $(n-j)+(n-i)$ Vertauschungen von Spalten oder Zeilen vorgenommen. Also gilt
\[\det(\tilde
A_{ij})=(-1)^{2n-i-j}\det(\check{A}_{ij})=(-1)^{i+j}\det(\check{A}_{ij}).\] Um den Beweis abzuschließen, müssen wir nur noch die Identität $\det(A_{ij})=\det(\check{A}_{ij})$ nachweisen. Dies ist aber ein Spezialfall der folgenden Aussage.
qed

Proposition Für eine Blockmatrix
\[A=\left(
\begin{array}{cc}B&0\\C&D\end{array}\right)\] mit quadratischen Matrizen $B$ und $D$ gilt
\[\det(A)=\det(B)\cdot \det(D).\]

Beweis. Die Matrix $B$ sei vom Format $k\times k$ und $D$ eine $l\times l$-Matrix mit $k+l=n$. In der Leibnizschen Formel
\[\det({A})=\sum_{\sigma\in
S_n}\mathrm{sign}(\sigma)a_{\sigma(1),1}\cdots a_{\sigma(n),n}
\] verschwindet der zu $\sigma\in S_n$ gehörende Summand, falls einer der Faktoren $a_{\sigma(i),i}$ aus dem $0$-Block rechts oben ist, also für ein $i>k$ gilt $\sigma(i)\leq k$. Der zu $\sigma$ gehörende Summand in der Leibnizschen Formel kann also nur dann zur Determinante beitragen, falls die Permutation $\sigma$ die Indizes $1,\ldots,k$ in sich abbildet und damit auch die Indizes $k+1,\ldots,n$ in sich. Das heißt aber, dass $\sigma=(\beta,\gamma)$ in der Untergruppe $S_k\times S_l\subset S_n$ liegt, die aus Permutationen der ersten $k$ Indizes und aus Permutationen der letzten $l$ Indizes in $1,\ldots,k,k+1,\ldots,k+l$ besteht. Es gilt also
\begin{eqnarray*}
\det(A)&=&\sum_{(\beta,\gamma)\in S_k\times S_l}
\mathrm{sign}(\beta\gamma)a_{\beta(1),1}\cdots a_{\beta(k),k}
\cdot
a_{k+\gamma(1),k+1}\cdots a_{k+\gamma(l),k+l}
\\
&=&\sum_{\beta\in S_k}\sum_{\gamma\in S_l}\mathrm{sign}(\beta)\mathrm{sign}(\gamma)a_{\beta(1),1}\cdots a_{\beta(k),k}\cdot
a_{k+\gamma(1),k+1}\cdots a_{k+\gamma(l),k+l}\\
&=&\left(\sum_{\beta\in S_k}\mathrm{sign}(\beta)b_{\beta(1),1}\cdots b_{\beta(k),k}\right)\cdot\left(\sum_{\gamma\in
S_l}\mathrm{sign}(\gamma)
d_{\gamma(1),1}\cdots d_{\gamma(l),l}\right)\\
&=& \det(B)\cdot \det(D)
\end{eqnarray*}
qed

Definition. Die Adjunkte $A^\#=(a_{ij}^\#)$ einer quadratischen Matrix $A$ ist die quadratische Matrix mit Einträgen
\[a^\#_{ij}=(-1)^{i+j}det(A_{ji}).\]

Die Adjunkten von $2\times 2$-Matrizen sind zum Beispiel von der Form
\[
\left(\begin{array}{cc}a&b\\c&d\end{array}\right)^\#=
\left(\begin{array}{rr}d&-b\\-c&a\end{array}\right)
.\] Die Adjunkte einer Dreiecksmatrix ist wieder eine Dreiecksmatrix, zum Beispiel
\[
\left(\begin{array}{ccc}a&b&c\\0&d&e\\0&0&f
\end{array}\right)^\#=
\left(\begin{array}{ccc}df&-bf&be-dc\\0&af&-ae\\0&0&ad
\end{array}\right)
\]

Das explizite Berechnen der Adjunkten ist mindestens ebenso kompliziert wie das von Determinanten. Interessant sind Adjunkten auf Grund der folgenden Beobachtung.

Satz. Für eine $n\times n$-Matrix $A$ gilt $A^\#A=AA^\#=\det(A)\cdot{\mathbb I}_n$. Ist $A$ invertierbar, so gilt \[A^{-1}=\frac1{\det(A)}A^\#.\]

Beweis. In $AA^\#$ steht an der Stelle $(i,i)$ die Zahl
\[
\sum_{j=1}^na_{ij}a^\#_{ji}=
\sum_{j=1}^na_{ij}(-1)^{i+j}\det(A_{ij})=\det(A).\] Für $i\not=k$ steht in $A^\#A$ an der Stelle $(i,k)$ die Zahl
\[
\sum_{j=1}^na_{ij}a^\#_{jk}=
\sum_{j=1}^na_{ij}(-1)^{j+k}\det(A_{kj}).\] Das ist die Entwicklung nach der $k$-ten Zeile derjenigen Matrix, welche aus $A$ entsteht, wenn die $k$-te Zeile durch die $i$-te Zeile ersetzt wird. Diese Matrix besitzt zwei gleiche Zeilen. Ihre Determinante ist gleich Null. Analog beweist man $A^\#A=\det(A)\cdot {\mathbb I}_n$. Die zweite Aussage folgt unmittelbar.
qed

Diese Beobachtung hat eine interessante Folgerung, die, wollte man sie direkt beweisen, recht schwierig wäre:

Korollar. Es sei $A$ eine quadratische Matrix mit ganzzahligen Einträgen. Ist $A$ invertierbar als Matrix über den rationalen Zahlen, so ist die inverse Matrix $A^{-1}$ genau dann ganzzahlig, wenn $|\det(A)|= 1$ gilt.

Beweis. Mittels eines kurzen Blicks auf die Leibnizsche Formel überzeugt man sich, dass die Determinante einer ganzzahligen Matrix selbst ganzzahlig ist. Sind $A$ und ihr Inverses ganzzahlig, so ist wegen $\det(A)\det(A^{-1})=1$ der Betrag von $\det(A)$ gleich $1$. Die Adjunkte einer ganzzahligen Matrix ist immer ganzzahlig. Ist $|\det(A)|=1$, so ist die Adjunkte (bis auf eventuell das Vorzeichen) auch die Inverse von $A$.
qed

Unterstützt von Drupal