Es sei $V$ ein reeller Vektorraum.
4.1.1. Definition. Der Vektorraum $\text{Alt}^k(V)$ der alternierenden, $k$-linearen Formen auf $V$ besteht aus Abbildungen
\[\omega\colon V^k= \underbrace{V\times\ldots \times V}_{k-\text{mal}}\to \mathbb R\] mit den Eigenschaften
$$
\begin{aligned}
\omega(\ldots,rv_i,\ldots)&=r\omega(\ldots,v_i,\ldots)\quad\text{ für } r\in \mathbb R \\
\omega(\ldots,v_i+v_i',\ldots)&=\omega(\ldots,v_i,\ldots)+\omega(\ldots, v_i',\ldots)
\end{aligned}
$$ In diesen Gleichungen werden nur die Einträge an der $i$-ten Stelle aufgeführt; an den punktierten Stellen stehen jeweils dieselben Vektoren.
Die Menge der alternierenden $k$-Formen Alt$^k(V)$ bildet einen Vektorraum, da $\omega+\omega'$ und $r \cdot \omega$ auch alternierende Multilinearformen sind, falls $\omega$ und $\omega'$ es sind und $r\in \mathbb R$ ist. Ein Homomorphismus \[f\colon V\to W\] induziert einen Homomorphismus \[f^*\colon \text{Alt}^k(W)\to \text{Alt}^k(V)\] vermittels
$$
(f^*(\omega))(v_1,\ldots,v_k)=\omega(f(v_1),\ldots,f(v_k)).
$$ Es gilt $(id_V)^*=id_{Alt^k(V)}$ und $(f\circ g)^*=g^*\circ f^*$ für Homomorphismen $g\colon U\to V$. Die letztere Aussage folgt aus \begin{align*}
((f\circ g)^*(\omega))(v_1,\ldots,v_k)&=\omega(f(g(v_1)),\ldots,f(g(v_k)))\\
&=(f^*(\omega))(g(v_1),\ldots,g(v_k))\\&=g^*(f^*(\omega))(v_1,\ldots,v_k).
\end{align*}
4.1.2. Lemma. Sei $\omega$ eine alternierende $k$-Form auf $V$.
\omega(\ldots,v_i+r v_j,\ldots,v_j,\ldots).$
Beweis.
- Wir wenden auf die rechte Seite die Linearität in der $i$-ten Variablen an und benutzen dann, dass $\omega$ alternierend ist.
- Der Übersichtlichkeit halber betrachten wir nur zwei Variable. Es gilt \begin{align*}0&=\omega(v_1+v_2,v_1+v_2)\\ &=\omega(v_1,v_1)+\omega(v_1,v_2)+\omega(v_2,v_1)+\omega(v_2,v_2)
\\ &=\omega(v_1,v_2)+\omega(v_2,v_1)
\end{align*} - Sei etwa $ v_i=\sum_{j\ne i} \lambda_j v_j.$ Dann liefert uns die Multilinearität $$
\omega(v_1,\ldots,v_n)=\omega(\ldots, \underbrace{\sum_{j\ne
i}{\lambda_j} v_j}_{i\text{-te Stelle}},\ldots)=
\sum_{j\ne i}\lambda_j\omega(\ldots,
\underset{\overset\uparrow {i}}{v_j},\ldots,
\underset{\overset\uparrow {j}}{v_j},\ldots)
$$ Durch die untenstehenden Pfeile werden im letzten Term die jeweiligen Stellen spezifiziert. Jeder Summand auf der rechten Seite ist Null.
qed
Es sei $S_k$ die Gruppe der Permutationen der Menge $\{1,\ldots,k\}$. Aus der linearen Algebra kennen wir den Gruppenhomomorphismus $\mathrm{sign}\colon S_k\to \{\pm1\}$, der beschreibt, inwieweit eine gegebene Permutation als Komposition einer geraden oder einer ungeraden Anzahl von Transpositionen dargestellt werden kann. Die zweite Eigenschaft im obigen Lemma lässt sich damit verallgemeinern: $$\omega\left(v_{\sigma(1)},\ldots,v_{\sigma(k)}\right)=\mathrm{sign}(\sigma)\omega(v_1,\ldots,v_k).$$
4.1.3. Proposition. Ist $V$ ein Vektorraum der Dimension $\dim V=n$, so ist $\dim Alt^k(V)={n\choose k}$.
Beweis. Ist $e_1,\ldots,e_n$ eine geordnete Basis, so beschreibt die Auswertungsabbildung $$Alt^k(V)\to \mathbb R^{n\choose k},\quad \omega\mapsto \left(\omega(e_{\mu_1},\ldots,e_{\mu_k})\right)_{\mu_1\lt \ldots \lt \mu_k},$$ die eine gegebene alternierende $k$-Form an allen geordneten $k$-elementigen Teilmengen der Basis auswertet, einen Isomorphismus:
- Injektivität: Es sei $\omega(e_{\mu_1},\ldots,e_{\mu_k})=0$ für alle geordneten $k$-Tupel. Ist $v_i=\sum_{\mu_i=1}^n v_i^{\mu_i}e_{\mu_i}$, so erhalten wir \begin{align}
\omega(v_1,\ldots,v_k)& = \sum_{\mu_1,\ldots,\mu_k=1}^n\prod_{i=1}^k v_i^{\mu_i}\omega(e_{\mu_1},\ldots,e_{\mu_k})\\
&= \sum_{\sigma\in S_k}\sum_{\mu_1\lt \ldots \lt\mu_k}\prod_{i=1}^k v_{\sigma(i)}^{\mu_{\sigma(i)}}\omega(e_{\mu_{\sigma(1)}},\ldots,e_{\mu_{\sigma(k)}})\\
&= \sum_{\sigma\in S_k}\sum_{\mu_1\lt \ldots \lt\mu_k}\mathrm{sign}(\sigma)\prod_{i=1}^k v_{\sigma(i)}^{\mu_{\sigma(i)}}\omega(e_{\mu_{1}},\ldots,e_{\mu_k})\\
&=0.\end{align} - Surjektivität: Es reicht zu zeigen, dass es für ein gegebenes $k$-Tupel von Indizes $\mu_1\lt\ldots\lt \mu_k$ eine $k$-Form $\omega\in Alt^k(V)$ gibt mit $\omega(e_{\mu_1},\ldots,e_{\mu_k})=1$ und $\omega(e_{\nu_1},\ldots,e_{\nu_k})=0$ für jedes andere Tupel von Indizes $\nu_1\lt\ldots\lt\nu_k$ mit $(\mu_1,\ldots,\mu_k)\not=(\nu_1,\ldots,\nu_k)$. Die folgende Konstruktion liefert eine solche Form. Sie wird mit $\epsilon^{\mu_1}\wedge\ldots\wedge\epsilon^{\mu_k}$ bezeichnet: Zu einem gegebenen $k$-Tupel von Vektoren $v_i=\sum_{\mu_i=1}^n v_i^{\mu_i}e_{\mu_i}$ betrachten wir $k\times n$-Matrix $A=\left(v_i^j\right)_{i,j}$. Die $k\times k$-Untermatrix $A_{\mu_1,\ldots,\mu_k}$ besteht aus den durch die Indizes gekennzeichneten Spalten in $A$. Wir definieren $$ \epsilon^{\mu_1}\wedge\ldots\wedge\epsilon^{\mu_k}(v_1,\ldots,v_k):= \det\left(A_{\mu_1,\ldots,\mu_k}\right).$$ Dass diese Konstruktion die geforderten Eigenschaften liefert, folgt aus den Eigenschaften der Determinante.
qed
Ist $V$ ein reeller Vektorraum, so ist $Alt^1(V)=V^*=Hom(V,\mathbb R)$ der Dualraum von $V$. Wir setzen $Alt^0(V):=\mathbb R$, und $$Alt^*(V):=\oplus_{k=0}^\infty Alt^k(V).$$ Ist $V$ endlich dimensional, so ist $Alt^k(V)=0$ für $k\gt \dim(V)$.
4.1.4. Definition Auf dem Vektorraum $Alt^*(V)$ ist das äußere Produkt \begin{align}\wedge\colon Alt^k(V)\times Alt^l(V)&\to Alt^{k+l}(V)\\ (\tau,\omega)&\mapsto \tau\wedge\omega,\end{align} definiert durch $$\tau\wedge\omega\left(v_1,\ldots,v_{k+l}\right)=\frac1{k!l!}\sum_{\sigma\in S_{k+l}}\mathrm{sign}(\sigma)\,\tau\left(v_{\sigma(1)},\ldots,v_{\sigma(k)}\right)\,\omega\left(v_{\sigma(k+1)},\ldots,v_{\sigma(k+l)}\right).$$
4.1.5. Proposition. Es seien die Vektoren $e_1,\ldots,e_n$ eine geordnete Basis des reellen Vektorraums $V$, und $\epsilon^1,\ldots,\epsilon^n$ die duale Basis des Dualraums $V^*$, d.h. es gelte $$\epsilon^i(e_j)=\delta^i_j=\begin{cases}1&\text{ für }i=j\\0&\text{ sonst.}\end{cases}$$ Dann bilden die $k$-Formen $\epsilon^{\mu_1}\wedge\ldots\wedge\epsilon^{\mu_k}$ mit $1\le \mu_1\lt\ldots\lt\mu_k\le n$ eine Basis von $Alt^k(V)$. Es gelten die Formeln
Beweis. Im Prinzip folgt die Aussage aus 4.1.3. Wir müssen nur verifizieren, dass die verschiedenen Definitionen konsistent sind: Sind $v_i=\sum_{\mu_i=1}^n v_i^{j}e_{j}$ für $i\in\{1,\ldots,n\}$ Vektoren in $V$, so wird die Determinante der $n\times n$-Matrix $A=\left(v_i^{\,j}\right)_{i,j}=\left(\epsilon^j(v_i)\right)_{i,j}$ beschrieben durch die Leibniz-Formel $$\det(A)=\sum_{\sigma\in S_n}\mathrm{sign}(\sigma)\,\prod_{i=1}^n\epsilon^i(v_{\sigma(i)}).$$ Außerdem gelten für $\tau=\epsilon^{\mu_1}\wedge\ldots\wedge\epsilon^{\mu_k}$ und $\omega=\epsilon^{\nu_{k+1}}\wedge\ldots\wedge\epsilon^{\nu_{k+l}}$ die Gleichungen \begin{align}(\tau\wedge\omega)\left(v_1,\ldots,v_{k+l}\right)&= \frac1{k!l!}\sum_{\sigma\in S_{k+l}}\mathrm{sign}(\sigma)\,\tau\left(v_{\sigma(1)},\ldots,v_{\sigma(k)}\right)\,\omega\left(v_{\sigma(k+1)},\ldots,v_{\sigma(k+l)}\right)\\
&=\frac1{k!l!}\sum_{\sigma\in S_{k+l}}\mathrm{sign}(\sigma)
\left(\sum_{\alpha\in S_{k}}\mathrm{sign}(\alpha)\,\prod_{i=1}^k\epsilon^{\mu_i}(v_{\sigma\alpha(i)})\right)
\left(\sum_{\beta\in S_{l}}\mathrm{sign}(\beta)\,\prod_{i=k+1}^{k+l}\epsilon^{\nu_i}(v_{\sigma\beta(i)})\right)\\
&=\frac1{k!l!}\sum_{\sigma\in S_{k+l}}\sum_{\gamma\in S_k\times S_l}\mathrm{sign}(\sigma\gamma)\,\prod_{i=1}^k\epsilon^{\mu_i}(v_{\sigma\gamma(i)})\prod_{i=k+1}^{k+l}\epsilon^{\nu_i}(v_{\sigma\gamma(i)})\\
&=\sum_{\sigma\in S_{k+l}}\mathrm{sign}(\sigma)\,\prod_{i=1}^k\epsilon^{\mu_i}(v_{\sigma(i)})\prod_{i=k+1}^{k+l}\epsilon^{\nu_i}(v_{\sigma(i)})\\
&= \epsilon^{\mu_1}\wedge\ldots\wedge\epsilon^{\mu_k}\wedge\epsilon^{\nu_{k+1}}\wedge\ldots\wedge\epsilon^{\nu_{k+l}}(v_1,\ldots,v_{k+l}).
\end{align}Der Grund für den auf den ersten Blick seltsamen Faktor $\frac1{k!l!}$ ist die Mehrfach-Zählung der Summanden beim Iterieren des äußeren Produkts. Die behaupteten Formeln folgen für die angegebenen Basiselemente sofort aus der Definition und im allgemeinen Fall mittels Linearität.
qed