Bei den linearen Abbildungen zwischen Vektorräumen handelt es sich, pauschal formuliert, um strukturerhaltende Abbildungen. Die Struktur von Vektorräumen besteht aus der Vektoraddition und der Multiplikation mit Skalaren. Präzise werden lineare Abbildungen durch folgende Eigenschaften beschrieben:
Definition. Es sei $K$ ein Körper. Sind $V, W$ zwei $K$-Vektorräume, so heißt eine Abbildung $\varphi\colon V\to W$ linear, oder Homomorphismus, wenn für alle $v,v'\in V$ und $k\in K$ gilt: \begin{align*}
\varphi(v+v')&=\varphi(v)+\varphi(v')\\
\varphi(k v)&=k\cdot(\varphi (v))
\end{align*} Die Menge der Homorphismen von $V$ nach $W$ wird mit $\hom_K(V, W)$ oder einfach $\hom(V, W)$ bezeichnet.
Bemerkungen.
- Sind $\varphi\colon V\to W$ und $\psi\colon W\to Y$ zwei lineare Abbildungen, so ist $\psi\circ\varphi\colon V\to Y$ auch linear.
- Die Menge $\hom_K(V, W)$ ist selbst ein $K$-Vektorraum vermöge der Addition $(\varphi +\varphi')(v)\colon=\varphi(v)+\varphi'(v)$ und der Multiplikation mit Skalaren $(k\cdot\varphi)(v)\colon= k\cdot (\varphi(v))$. Die Nullabbildung $V\to W;\; v\mapsto 0$ ist das neutrale Element.
Hat man eine Basis eines Vektorraumes gegeben, lassen sich Homomorphismen einfach konstruieren:
Satz. Sei $B\subset V$ eine Basis und $f\colon B\to W$ eine beliebige Abbildung. Dann gibt es genau eine lineare Abbildung $\varphi\colon V\to W$ mit $\varphi(b)=f(b)$ für $b\in B$. Ist speziell $\{b_1,\ldots, b_n\}\subset V$ eine endliche Basis, und sind $w_1,\ldots, w_n\in W$ gegeben, so ist durch $\varphi(b_i)\colon= w_i$ für $i\in \{1,\ldots, n\}$ eindeutig ein Homomorphismus $\varphi\colon V\to W$ bestimmt.
Beweis. Ist $v\in V$, so läßt sich $v$ als Linearkombination $$ v=\sum^{n}_{i=1} k_i b_i $$ mit Basisvektoren $b_1,\ldots,b_n\in B$ und $k_1,\ldots,k_n\in K$ darstellen. Wir definieren $$\varphi(v)\colon=\sum^{n}_{i=1} k_i f(b_i).$$ Dies ist wohldefiniert, denn die Darstellung von $v$ als Linearkombination der Basis ist eindeutig.
Ist andererseits $\varphi'\colon V\to W$ eine lineare Abbildung und $\varphi'(b)=f(b)$ für alle $b\in B$, so gilt wegen der Linearität für alle $v=\sum_{i=1}^nk_ib_i\in V$: \begin{align*}
\varphi'(v)=\varphi'\left(\sum^{n}_{i=1} k_i
b_i\right)&=\sum^{n}_{i=1}\varphi'(k_i b_i)=\sum^{n}_{i=1}
k_i \varphi'(b_i)\\
&=\sum^{n}_{i=1} k_i f(b_i)=\varphi(v).
\end{align*} qed
Diese Art der Konstruktion von Homomorphismen macht natürlich nur Sinn, wenn wir Basen tatsächlich explizit beschreiben können. Das ist nicht immer der Fall. Zum Beispiel kennen wir keine Basis des Raumes $\mathcal{C}^0(I;\mathbb{R})$ der stetigen Funktionen auf dem Intervall $I=[a,b] \subset \mathbb{R}$. Trotzdem würden wir gerne lineare Abbildungen beschreiben. Zwei Beispiele solcher linearer Abbildungen haben Sie schon in der Schule ansatzweise kennengelernt: Die Ableitung und das Integral. Diese zwei Operationen werden Sie in der Vorlesung Analysis noch genauer studieren. Ich will sie hier nur erwähnen und dabei an Ihr Schulwissen appellieren.
Beispiele.
- Für eine stetige Funktion $f:I\to \mathbb R$ bezeichne $\int_a f$ die Stammfunktion $$\left(\int_a f\right)(t):=\int_a^tf(x)\;dx.$$ Die Zuordnung $\int_a\colon\mathcal{C}^0(I;\mathbb{R})\to\mathcal{C}^1(I;\mathbb{R}), f\mapsto \int_af$ ist linear, da gilt $\int_a(f_1+f_2) = \left(\int_af_1\right)+\left(\int_a f_2\right)$ und $\int_a(rf)=r \left(\int_af\right)$ für $r\in\mathbb R$.
Es bedarf eines gehörigen Aufwands, um das Integral sauber zu definieren. Man definiert zuerst das Integral für besonders schöne Funktionen, wie zum Beispiel Treppenfunktionen, die, ähnlich wie $\mathbb{Q}\subset\mathbb{R}$, dicht in einem geeignet konstruierten Vektorraum von integrierbaren Funktionen liegen. Die Forderung, dass das Integral sich stetig auf diesen Vektorraum von integrierbaren Funktionen fortsetzt, bestimmt dann das Integral eindeutig. Schließlich zeigt man, dass stetige Funktionen integrierbar sind. Diese Konstruktion ist, will man sie exakt machen, relativ aufwendig. - Mit deutlich weniger Aufwand läßt sich die Ableitung definieren. Auch sie ist eine lineare Abbildung \begin{align*}
\frac{d}{dt}\colon\mathcal{C}^1(I;\mathbb{R})&\to\mathcal{C}^0(I;\mathbb{R})\\
f &\mapsto f'
\end{align*} denn es gilt $(f+g)'=f'+g'$ und $(rf)'=r (f')$ für $r\in \mathbb R$. Die Konstruktion der Ableitung benutzt ebenfalls trickreich die Idee der Approximation.
Diese beiden Beispiele sollen Ihnen nur aufzeigen, dass es interessante Beispiele von linearen Abbildungen zwischen unendlich dimensionalen Vektorräumen gibt. Hier in der Vorlesungen werden wir uns hauptsächlich auf endlich dimensionale Vektorräume konzentrieren. Alles zu seiner Zeit.
Definition. Eine lineare Abbildung $f\colon V\to W$ heißt
- Monomorphismus, falls sie injektiv ist,
- Epimorphismus, falls sie surjektiv ist,
- Isomorphismus, falls sie bijektiv ist,
- Endomorphismus, falls $V=W$ ist und
- Automorphismus, falls sie bijektiv ist und $V=W$ gilt.
Proposition. Ist $f\colon V\to W$ linear und bijektiv, so ist auch $f^{-1}\colon W\to V$ linear und bijektiv.
Beweis. Für $ w,w'\in W$ ist \begin{align*}
f^{-1}(w+w')&=f^{-1}\left(f\left(f^{-1}(w)\right)+f\left(f^{-1}(w')\right)\right)\qquad\text{ da } f\circ
f^{-1}=id_W\\
&=f^{-1}\left(f\left(f^{-1}(w)+ f^{-1}(w')\right)\right)\qquad\quad\,\,\text{da } f \text{ linear}\\
&=f^{-1}(w)+f^{-1}(w')\qquad\qquad\qquad\quad\,\, \text{da } f^{-1}\circ f =id_V.
\end{align*} Ebenso ist $f^{-1}(k w)=f^{-1}\left(k f \left(f^{-1} (w)\right)\right)= f^{-1}\left(f \left(k f^{-1}(w)\right)\right)=k f^{-1} (w).$
qed
Zwei Vektorräume $V$ und $W$ heißen isomorph, wenn es einen Isomorphismus gibt zwischen ihnen.
Satz. Endlich dimensionale $K$-Vektorräume sind genau dann isomorph, wenn ihre Dimension gleich ist.
Beweis. Sei $f\colon V\to W$ ein Isomorphismus. Sind $f(v_1),\ldots,f(v_n)$ linear unabhängige Vektoren in $W$, so sind die Vektoren $v_1,\ldots, v_n \in V$ linear unabhängig. Denn ist die Linearkombination $\sum_{i=1}^nk_iv_i=0$ eine Darstellung der Null, so erhalten wir über die Gleichung $$\sum_{i=1}^nk_if(v_i)=f\left(\sum_{i=1}^nk_iv_i\right)=f(0)=0
$$ eine Darstellung der Null als Linearkombination der linear unabhängigen Vektoren $f(v_i)$. Folglich müssen alle Koeffizienten verschwinden $k_i=0$. Da $f$ bijektiv ist, bildet das Urbild einer Basis in $W$ eine linear unabhängige Teilmenge der gleichen Mächtigkeit in $V$. Es folgt $\dim(V)\geq \dim(W)$.
Die gleiche Argumentation mit der linearen Umkehrabbildung $f^{-1}\colon W\to V$ anstelle von $f$ an liefert $\dim(V)\leq\dim(W)$ und damit die behauptete Gleichheit der Dimensionen.
Sind die Dimensionen der Vektorräume $V$ und $W$ gleich $d$, so lassen sich Basen $\{v_1,\ldots,v_d\}$ und $\{w_1,\ldots,w_d\}$ der beiden Vektorräume finden. Durch $f(v_i):=w_i$ und $g(w_i):=v_i$ sind lineare Abbildungen $f:V\to W$ und $g:W\to V$ eindeutig festgelegt. Es gilt $g\circ f(v_i)=v_i$. Folglich ist $g\circ f=id_V$ die identische Abbildung auf $V$. Ebenso ist $f\circ g=id_W$ die identische Abbildung auf $W$. Also ist $f$ ein Isomorphismus und $g=f^{-1}$ der dazu inverse.
qed
Insbesondere gibt es also für einen Vektorraum $V$ der Dimension $d$ über einem Körper $K$ Isomorphismen $V\to K^d$. Ein solcher Isomorphismus heißt lineare Karte, die Komponenten einer linearen Kartenabbildung heißen lineare Koordinaten. Endlich dimensionale Vektorräume sind also immer isomorph zu Standardmodellen.
Nach dem obigen Klassifikationssatz für endlich dimensionale Vektorräume kann ein endlich dimensionaler Vektorraum nie zu einem echten Untervektorraum isomorph sein. Dies gilt nicht für unendlich dimensionale Vektorräume.
Beispiele.
- Sei $\{(k_1,k_2,\ldots)\;\vert\; k_i\in K\}$ der Vektorraum der Folgen in $K$ und $\{(0,k_2,k_3,\ldots)\;\vert\;k_i\in K\}$ der Unterraum der Folgen mit verschwindendem erstem Folgenglied. Durch Verschieben der Folgeglieder um eine Stelle lassen sich offensichtliche Isomorphismen konstruieren.
- Wir betrachten den Vektorraum $V={\mathcal C}^0([a,b],\mathbb{R})$ der stetigen, reellwertigen Funktionen auf einem Intervall, sowie den Untervektorraum $$U=\{f\in{\mathcal C}^1([a,b],\mathbb{R})\;\vert\; f(a)=0\}$$ der einmal stetig differenzierbaren Funktionen, die an der einen Intervallgrenze verschwinden. Der Hauptsatz der Differential- und Integralrechnung (hier verweise ich auf Ihre Schulkenntnisse) besagt nun, dass das Integral $\int_a\colon V\to U$ ein Isomorphismus ist. Die Umkehrabbildung ist die Ableitung $\frac{d}{dt}\colon U\to V$.