Definition. Eine geordnete Basis eines $K$-Vektorraums $V$ der Dimension $n$ ist ein $n$-Tupel $\mathcal V=(v_1,\ldots,v_n)$ von Vektoren $v_i\in V$, so dass die Menge $\{v_1,\ldots,v_n\}$ eine Basis von $V$ ist.
Definition. Es sei $\mathcal V=(v_1,\ldots,v_n)$ eine geordnete Basis von $V$, $v\in V$ ein Vektor und $v=\sum_j k_jv_j$ seine eindeutig bestimmte Darstellung als Linearkombination der gegebenen Basisvektoren. Dann heißt \[M_\mathcal V(v)=\left(
\begin{array}{c}
k_1\\
\vdots\\
k_n\\
\end{array}
\right)
\] der Spaltenvektor von $v$ bezüglich der geordneten Basis $\mathcal V$.
Die Zuordnung $v\mapsto M_\mathcal V(v)$ beschreibt einen Isomorphismus $M_\mathcal V:V\to K^n\cong Mat_K(n,1)$.
Im Folgenden seien $V$ und $W$ endlich dimensionale Vektorräume über dem Körper $K$, versehen mit geordneten Basen $\mathcal V=(v_1,\ldots,v_n)$ und $\mathcal W=(w_1,\ldots, w_m)$.
Definition. Es sei $f:V\to W$ eine lineare Abbildung. Dann heißt die durch \begin{eqnarray}\label{A}
f(v_j)&=&\sum_{i=1}^m a_{ij}w_i
\end{eqnarray} eindeutig bestimmte $m\times n$-Matrix \[M^{\mathcal V}_{\mathcal W}(f):=(a_{ij})_{i=1,\ldots,m\atop j=1,\ldots,n}\] die Matrix von $f$ bezüglich der geordneten Basen $\mathcal V$ und $\mathcal W$.
Mit diesen Bezeichnungen gilt die Gleichung $$M_\mathcal W \left(f(v)\right)=M^\mathcal V_\mathcal W(f)\cdot M_\mathcal V(v).$$ Insbesondere können wir eine lineare Abbildung beschreiben durch die Multiplikation eines Spaltenvektors mit einer Matrix. Ordnet man auf diese Weise linearen Abbildungen jeweils Matrizen zu, so übersetzt sich die Komposition von linearen Abbildungen in die Matrixmultiplikation.
Satz. Es seien $U,V,W$ jeweils $K$-Vektorräume mit geordneten Basen $\mathcal U=(u_1,\ldots,u_p)$, $\mathcal V=(v_1,\ldots,v_n)$ und $\mathcal W=(w_1,\ldots,w_m)$. Die Zuordnung \begin{eqnarray*}
M^{\mathcal V}_{\mathcal W}
: \hom_K(V,W)&\to&Mat_K(m,n)\\
f&\mapsto&M^{\mathcal V}_{\mathcal W}(f)
\end{eqnarray*} ist ein Isomorphismus von Vektorräumen. Sind $g:U\to V$ und $f:V\to W$ jeweils linear, so gilt \[M^{\mathcal V}_{\mathcal W}(f)\cdot
M^{\mathcal U}_{\mathcal V}(g)=M^{\mathcal U}_{\mathcal
W}(f\circ g).\]
Beweis. Jede lineare Abbildung ist eindeutig durch die Bilder auf einer Basis des Definitionsbereichs festgelegt; diese Bilder können beliebige Linearkombinationen der Basis der Wertebereichs sein. Daraus folgen Injektivität und Surjektivität der betrachteten Abbildung. Sind $M^{\mathcal V}_{\mathcal W}(f)=(a_{ij})$ und $M^{\mathcal U}_{\mathcal V}(g)=(b_{jk})$, so gilt nach Definition $f(v_j)=\sum_ia_{ij}w_i$ und $g(u_k)=\sum_jb_{jk}v_j$. Folglich gilt \[ (f\circ g)(u_k)=f(g(u_k))=f(\sum_jb_{jk}v_j)=\sum_jb_{jk}f(v_j)=
\sum_jb_{jk}\left(\sum_ia_{ij}w_i\right)= \sum_i\left(\sum_j a_{ij}b_{jk}\right)w_i.\] Für die Einträge $c_{ik}$ der Matrix $M^{\mathcal U}_{\mathcal W}(f\circ g)$ gilt also $(c_{ik})=(a_{ij})\cdot (b_{jk})$ wie behauptet.
qed
Korollar. Ist $V$ ein $n$-dimensionaler $K$-Vektorraum mit geordneter Basis $\mathcal V$, so ist die Zuordnung \[ M^{\mathcal V}_{\mathcal V}: \mathrm{end}_K(V)\to M_K(n,n)\] ein Isomorphismus von Ringen.
Beweis. Dies folgt sofort aus dem obigen Satz, angewandt auf den Spezialfall von $V=W$. Beachten Sie, dass wir bewiesen haben, dass $M^{\mathcal V}_{\mathcal V}$ ein Isomorphismus von $K$-Vektorräumen ist, der die Komposition in Matrizenmultiplikation überführt. Insbesondere folgen die Rechenregeln (Assoziativität und Distributivität) der Matrixmultiplikation aus den entsprechenden Rechenregeln für die Kompositionsabbildung, die im letzten Abschnitt besprochen wurde. Dass $M_K(n,n)$ bezüglich der Matrixmultiplikation ein Ring ist, brauchen wir also nicht noch extra nachzurechnen.
qed
Der Ringisomorphismus $M^{\mathcal V}_{\mathcal V}$ bildet die identische Abbildung $\mathrm{id}_V$ ab auf die $1$-Matrix \[\mathbb I_n=
\left(
\begin{array}{ccccc}
1&0&0&\ldots&0\\
0&1&0&\ldots&0\\
0&0&1&\ldots&0\\
\vdots&\vdots&&\ddots&\vdots\\
0&0&\ldots&0&1
\end{array}
\right)
\] mit Einsen auf der Diagonale und Nullen sonst.
Wie ändert sich die einer linearen Abbildung $f:V\to W$ zugeordnete Matrix $M^{\mathcal V}_{\mathcal W}(f)$, wenn wir die geordneten Basen ${\mathcal V}$ und ${\mathcal W}$ verändern? Dazu betrachten wir die Folge von Abbildungen \[
(V,{\mathcal V'})\stackrel{id}{\to}(V,{\mathcal V})\stackrel{f}{\to}
(W,{\mathcal W})\stackrel{id}{\to}(W,{\mathcal W'}).
\] Nach dem obigen Satz gibt es eine Relation \[
M^{\mathcal V'}_{\mathcal W'}(f)=
M^{\mathcal W}_{\mathcal W'}(id_W) \cdot
M^{\mathcal V}_{\mathcal W}(f) \cdot
M^{\mathcal V'}_{\mathcal V}(id_V).
\] Die Matrix $M^{\mathcal V'}_{\mathcal V}(id_V)$ beschreibt den Basiswechsel von der geordneten Basis ${\mathcal V'}$ zur geordneten Basis ${\mathcal V}$. Das heißt: Ist ${\mathcal V}=(v_1,\ldots,v_n)$ und $\mathcal V'=(v'_1,\ldots,v'_n)$, so lassen sich die gestrichelten Basisvektoren darstellen als Linearkombinationen der ungestrichelten: \[v'_j=id(v'_j)=\sum_{i=1}^n t_{ij}v_i.\] Die Koeffizienten bilden die Matrix $T=(t_{ij})= M^{\mathcal V'}_{\mathcal V}(id_V)$. Die Einträge in der Matrix $R=(r_{kl})=M^{\mathcal W}_{\mathcal W'}(id_W)$ erhält man, indem man nun die ungestrichelten Basisvektoren darstellt als Linearkombinationen der gestrichelten: \[w_l=id(w_l)=\sum_{k=1}^n r_{kl}w'_k.\] Die den Basiswechsel beschreibende Matrix $T$ ist invertierbar, denn es gilt $$M^{\mathcal V'}_{\mathcal V}(id_V)\cdot M^{\mathcal V}_{\mathcal V'}(id_V)=M^{\mathcal V}_{\mathcal V}(id_V)={\mathbb I}_n.$$ Analog ist auch $R$ invertierbar.
Satz. Ist $f:V\to W$ eine lineare Abbildung zwischen endlich dimensionalen Vektorräumen, so gibt es geordnete Basen $\mathcal V=(v_1,\ldots,v_n)$ und $\mathcal W=(w_1,\ldots,w_m)$ mit der Eigenschaft: $f(v_i)=w_i$ für $1\leq i\leq r$ und $f(v_j)=0$ für $r < j$. Hier ist $r$ eine natürliche Zahl kleiner oder gleich $m$ und $n$. Bezüglich dieser Basen hat $f$ die Matrix \[
\left(
\begin{array}{cc}
{\mathbb I}_r&0\\
0&0
\end{array}
\right).
\]
Beweis. Eine Basis $(w_1,\ldots, w_r)$ des Bildes von $f$ werde zu einer Basis von $W$ ergänzt. Es seien $v_1,\ldots, v_r$ so gewählt, dass $w_i=f(v_i)$ für $i\leq r$ gilt. Diese Vektoren sind linear unabhängig und wir ergänzen sie durch eine Basis des Kerns zu einer Basis von $V$. Die Matrix von $f$ bezüglich der so konstruierten Basen ist von der angegebenen Form.
qed
Insbesondere gilt für Matrizen allgemein:
Korollar. Ist $A\in Mat_K(m,n)$, so gibt es invertierbare Matrizen $R\in Gl_K(m)$ und $T\in Gl_K(n)$ mit \[RAT=
\left(
\begin{array}{cc}
{\mathbb I}_r&0\\
0&0
\end{array}
\right).
\]qed
Definition. Sei $A$ eine $m\times n$-Matrix. Der Rang von $A$ ist die maximale Anzahl linear unabhängiger Spalten in $A$, betrachtet als Elemente von $K^m$.
Genauer, sollten wir diese Zahl den Spaltenrang von $A$ nennen. Denn es gibt einen analog analog definierten Zeilenrang von $A$, der die maximale Anzahl linear unabhängiger Zeilen von $A$, betrachtet als Elemente von $K^n$, bezeichnet. Der Grund, warum wir uns mit dieser feinsinnigen Unterscheidung nicht weiter abgeben, liegt im folgenden Phänomen:
Satz. Für jede Matrix ist der Zeilenrang gleich dem Spaltenrang.
Beweis. Der Satz ist offensichtlich richtig, falls es sich bei der Matrix um die Matrix \[\left(
\begin{array}{cc}
{\mathbb I}_r&0\\
0&0
\end{array}
\right)
\] aus dem obigen Korollar handelt. Nun läßt sich jede Matrix durch Multiplikation mit invertierbaren Matrizen von rechts und von links in diese Normalform bringen. Es reicht also nachzuweisen, dass sich weder der Spaltenrang noch der Zeilenrang einer Matrix ändert, wenn man diese mit invertierbaren Matrizen von links oder von rechts multipliziert.
Wir betrachten zuerst den Spaltenrang. Eine $m\times n$-Matrix $A$ beschreibt eine lineare Abbildung $f:K^n\to K^m$ bezüglich der Standardbasen. Die Spalten von $A$ sind dabei die Bilder der Standard-Einheitsvektoren. Der Spaltenrang von $A$ stimmt also mit der Dimension des Bildes von $f$ überein. Für invertierbare Matrizen $R\in Gl_K(m)$ und $T\in Gl_K(n)$ beschreiben $RAT$ und $A$ dieselbe Abbildung $f$ bezüglich verschiedener Basen. Der Spaltenrang von $RAT$ und der von $A$ sind beide gleich der Dimension des Bildes von $f$, also gleich. Der Spaltenrang einer Matrix ändert sich folglich nicht, wenn man sie von links oder von rechts mit invertierbaren Matrizen multipliziert.
Um dieselbe Aussage auch für den Zeilenrang zu beweisen, vertauschen wir einfach Zeilen und Spalten in den betrachteten Matrizen. Genauer, betrachten wir statt der Matrix $A$ deren Transponierte $A^t$. Diese Transponierte ist eine $n\times m$-Matrix und der Eintrag an der $(j,i)$-ten Stelle in $A^t$ ist der Eintrag an der $(i,j)$-ten Stelle von $A$, kurz $(a^t_{ji})=(a_{ij})$. Bevor wir uns weiter in die Argumentation stürzen, wollen wir uns darüber klar werden, wie sich das Transponieren mit dem Matrixprodukt verträgt; es gilt nämlich
\[(A\cdot B)^t=B^t\cdot A^t.\] Denn ist $B=(b_{jk})$ und $A\cdot B=C$, so ist $c_{ik}=\sum_{j=1}^na_{ij}b_{jk}$ und damit
\[c_{ki}^t=c_{ik}=\sum_ja_{ij}b_{jk}=\sum_jb_{kj}^ta_{ji}^t.\] Aus dieser kurzen Überlegung folgt auch, dass das Transponieren die Eigenschaft der Invertierbarkeit erhält: Gilt $A\cdot B={\mathbb I_n}$, so gilt auch $B^t\cdot A^t= {\mathbb I_n}^t= {\mathbb I_n}$. Der Zeilenrang von $A$ ist offensichtlich der Spaltenrang von $A^t$. Da Multiplikation mit invertierbaren Matrizen von links und von rechts den Spaltenrang einer Matrix, hier von $A^t$, nicht ändert, kann sie auch den Zeilenrang (von $A$) nicht ändern.
qed