Hilbert-Räume

In einem ebenen rechtwinkligen Koordinatensystem besitzt die Strecke vom Ursprung $(0,0)$ zum Punkt $(x,y)$ nach dem Satz des Pythagoras das Längenquadrat ${x^2+y^2}$. Ebenso berechnet sich das Längenquadrat der Strecke von $(0,0,0)$ zum Punkt $(x,y,z)$ im dreidimensionalen Raum durch zweimalige Anwendung des Satzes des Pythagoras als $x^2+y^2+z^2$. Es liegt nahe, eine Längenmessung in höher-dimensionalen Räumen induktiv über die Formel des Pythagoras einzuführen. Das Quadrat der Länge der Strecke vom Ursprung zum Punkt $x=(x_1,\ldots,x_n)\in\mathbb R^n$ wäre dann
$$
q(x)=\sum^n_{i=1} x_i^2.
$$ Die so eingeführte quadratische Abbildung $q\colon\mathbb R^n\to\mathbb R$ ist nicht linear. Die Abweichung von der Linearität wird durch die bilineare Abbildung
$$
b(x,y)\colon=q(x+y)-q(x)-q(y)
$$ gemessen. Diese lässt sich konkret in der Formel
$$
\frac12 b(x,y)=\sum^n_{j=1}x_j y_j
$$ ausdrücken, wenn $x$ und $y$ Punkte in $\mathbb R^n$ mit Koordinaten $(x_1,\ldots, x_n)$ und $(y_1,\ldots, y_n)$ sind. Den Ausdruck auf der rechten Seite nennt man das reelle, $n$-dimensionale Standardskalarprodukt
$$
\begin{aligned}
\langle -,-\rangle
\colon\mathbb R^n\times\mathbb R^n &\to\mathbb R\\
(x,y) &\mapsto \sum^n_{j=1} x_j y_j=\colon \langle
x,y\rangle.
\end{aligned}
$$ Im komplexen Vektorraum lässt sich auf analoge Weise eine Längenmessung einführen. Ist $z=x+iy\in\mathbb C$, so liefert das Produkt mit der konjugiert komplexen Zahl
$$
\bar{z}z= x^2+y^2
$$ das Längenquadrat in $\mathbb C$. Entsprechend lässt sich auch ein Skalarprodukt im $\mathbb C^n$ definieren:
$$
\begin{aligned}
\langle -,-\rangle\colon\mathbb C^n\times\mathbb C^n &\to\mathbb C\\
(z,w) &\mapsto \langle z,w\rangle :=
\sum^n_{j=1}\bar{z}_j w_j.
\end{aligned}
$$ Im Folgenden werden reelle und komplexe Vektorräume gleichzeitig behandelt. Ist $\mathbb{K}$ einer der Körper $\mathbb R$ oder $\mathbb C$, so bezeichnen wir mit $\bar{z}$ die zu $z\in\mathbb{K}$ konjugiert-komplexe Zahl. Ist $z\in\mathbb R$, so ist also $\bar{z}=z$. Mit dieser Vereinbarung lässt sich der Begriff des Skalarproduktes auf allgemeinen reellen oder komplexen Vektorräumen charakterisieren.

Definition. Es sei $V$ ein $\mathbb K$-Vektorraum. Eine Abbildung
$$
\langle -,-\rangle\colon V\times V\to \mathbb{K}
$$ heißt Skalarprodukt, falls für alle $v_i, v_j'\in V$ und $\kappa \in\mathbb{K}$ die folgenden Regeln gelten:

  1. $\langle v_1+v_2, v'\rangle = \langle
    v_1,v'\rangle+\langle v_2,v'\rangle$
  2. $\langle v, v_1'+v_2'\rangle = \langle
    v,v_1'\rangle + \langle v, v_2'\rangle$
  3. $\langle \kappa v,v'\rangle=\bar{\kappa}\langle
    v,v'\rangle$
  4. $\langle v, \kappa v'\rangle =\kappa\langle
    v,v'\rangle$
  5. $\langle v',v\rangle =\overline{\langle
    v,v'\rangle}$
  6. $\langle v,v\rangle > 0$, falls $v\ne 0$.


Die Eigenschaften 1 - 4 charakterisieren das Skalarprodukt im Falle $\mathbb{K}=\mathbb R$ als bilineare
Abbildung. Das komplexe Skalarprodukt ist nicht bilinear, nur im zweiten Eintrag ist es linear. Im ersten Eintrag ist es konjugiert linear. Entsprechend werden im komplexen Fall die Eigenschaften 1 - 4 als Sesquilinearität bezeichnet. Das Präfix sesqui ist vom Lateinischen abgeleitet und bedeutet ein und einhalb. In der Literatur gibt es keine einheitliche Konvention, welcher der beiden Einträge der lineare und welcher der konjugiert lineare Eintrag ist. In dieser Vorlesung wollen wir die Konvention benutzen, den linearen Eintrag an der zweiten Stelle zu setzen. Die Eigenschaft 5 nennt man im reellen Fall symmetrisch, im komplexen Fall hermitesch. Aufgrund dieser Eigenschaft ist für alle $v\in V$ das Skalarquadrat $\langle v,v\rangle$ reell. Symmetrische Bilinearformen oder hermitesche Sesquilinearformen, die zusätzlich die Eigenschaft 6 besitzen, nennt man positiv definit. Statt Skalarprodukt ist auch die Bezeichnung inneres Produkt gebräuchlich.

Einen mit einem Skalarprodukt versehenen reellen Vektorraum nennt man euklidisch. Ein komplexer Vektorraum mit Skalarprodukt heißt unitär. Sollen beide Fälle simultan behandelt werden, so sprechen wir von einem Hilbert-Raum.

An dieser Stelle ist ein klärendes Wort zur Terminologie angebracht: In der theoretischen Physik und auch in weiterführenden Vorlesungen in der Mathematik wird von einem Hilbert-Raum zusätzlich verlangt, dass Cauchy-Folgen immer konvergieren. Räume, die nicht in diesem Sinne vollständig sind, werden als Prä-Hilbert-Räume bezeichnet. Relevant wird der Unterschied allerdings erst bei unendlich dimensionalen Räumen. Endlich dimensionale Räume, wie wir sie hier in dieser einführenden Vorlesung vornehmlich betrachten werden, sind immer vollständig.

Aus der Sesquilinearität des Skalarprodukts folgt
\[\left\langle \sum_j\lambda_jv_j,\sum_k\mu_kv'_k\right\rangle =\sum_{j,k}
\bar{\lambda}_j\mu_k\langle v_j,v'_k\rangle.\] Insbesondere ist ein Skalarprodukt schon eindeutig bestimmt durch die Werte $\langle v_j,v_k\rangle$ für die Elemente $v_j, v_k$ einer Basis von $V$.

Ist, umgekehrt, $A=(a_{jk})$ irgendeine $n\times n$-Matrix mit Einträgen in $\mathbb K$ und $v_1,\ldots,v_n$ eine geordnete Basis von $V$, so wird durch
\[\left\langle \sum_j\lambda_jv_j,\sum_k\mu_kv_k\right\rangle =\sum_{j,k}
\bar{\lambda}_ja_{jk}\mu_k=\bar{\lambda}^tA\mu\] mit den Koordinatenvektoren
\[\lambda=
\left(\begin{array}{c}\lambda_1\\\vdots\\\lambda_n\end{array}\right)\quad
\text{und}\quad \mu=
\left(\begin{array}{c}\mu_1\\\vdots\\\mu_n\end{array}\right)\quad\] eine sesquilineare Abbildung
\[V\times V\to {\mathbb K}\] definiert. Die Eigenschaft 5 ist genau dann erfüllt, wenn die Matrix $A$ der Gleichung
\[\bar{A}^t=A\] genügt. Eine solche Matrix heißt hermitesch im Falle ${\mathbb K}=\mathbb C$ und symmetrisch im reellen Fall. Die letzte Bedingung 6, ob die Matrix positiv definit ist, lässt sich einer Matrix im Allgemeinen nicht so einfach ansehen.

Mit Hilfe eines Skalarproduktes lässt sich ein Längenbegriff in einem Hilbertraum einführen. Man nennt
\[|v|:=\sqrt{\langle v,v\rangle}\] die Norm oder Länge von $v$ und $|v-v'|$ den Abstand der Vektoren $v$ und $v'$ bezüglich des gegebenen Skalarprodukts $\langle-,-\rangle$. Vektoren der Länge $1$ heißen Einheitsvektoren. Zwei Vektoren $v$ und $v'$ nennt man orthogonal, im Zeichen $v\perp v'$, falls gilt $\langle v,v'\rangle=0$. Wegen der Eigenschaft 5 sind $v\perp v'$ und $v'\perp v$ äquivalent.

Für allgemeine $v$ und $v'$ folgt aus den Eigenschaften eines Skalarproduktes die Gleichung
\[
\langle v+v',v+v'\rangle - \langle v-v',v-v'\rangle= 4 Re
\langle v,v'\rangle.\] Hier bezeichnet $Re(z)=\frac12 (z+\overline z)$ den Realteil einer komplexen Zahl. Insbesondere gilt im Falle, dass $v$ und $v'$ orthogonal zueinander sind, die Formel des Pythagoras.
\[|v|^2+|v'|^2=|v+v'|^2=|v-v'|^2.\]

In der ebenen Geometrie sind $v+v'$ und $v-v'$ die beiden Diagonalen in dem von $v$ und $v'$ aufgespannten Parallelogramm. Ein Parallelogramm ist also genau dann ein Rechteck (die Vektoren $v$ und $v'$ stehen zueinander senkrecht), wenn die Diagonalen gleich lang sind.

Satz. Für Vektoren $v,v'$ eines Hilbert-Raumes gilt

  1. die Cauchy-Schwarzsche Ungleichung $|\langle v,v'\rangle|\leq |v| \,|v'|$ und
  2. die Dreiecksungleichung $|v+v'|\leq |v|+|v'|$.

Die Cauchy-Schwarzsche Ungleichung ist genau dann eine Gleichung, wenn $v$ und $v'$ linear abhängig sind.

Beweis. Ist $v=0$, so sind die Aussagen offensichtlich richtig. Andernfalls betrachten wir den Vektor
\[w=v'- \frac{\langle v,v'\rangle}{\langle v,v\rangle} v.\] Dieser Vektor ist orthogonal zu $v$. Der Satz des Pythagoras, angewandt auf $v'=w+\lambda v$ mit $\lambda= \frac{\langle v,v'\rangle}{\langle
v,v\rangle}$ liefert also
\[|v'|^2=|w|^2+|\lambda v|^2\ge |\lambda|^2|v|^2=
\frac{|\langle v,v'\rangle|^2}{|v|^4}|v|^2.
\] Hieraus folgt nach Kürzen und Wurzel nehmen die Cauchy-Schwarzsche Ungleichung. In der Abschätzung wird der Term $|w|^2$ weggelassen. Gleichheit gilt also genau dann, wenn dieser Term verschwindet. Das ist genau dann der Fall, wenn $v$ und $v'$ linear abhängig sind.
Zum Beweis der Dreiecksungleichung
\begin{eqnarray*}|v+v'|^2 &=& |v|^2+|v'|^2+ \langle
v,v'\rangle+
\langle v',v\rangle\\
&\leq& |v|^2+|v'|^2+
2|\langle v,v'\rangle|\\
&\leq& |v|^2+|v'|^2+ 2|v|\,|v'|=(|v|+|v'|)^2
\end{eqnarray*} benutzen wir bei der ersten Abschätzung die Tatsache, dass der Realteil einer komplexen Zahl nach oben durch den Betrag abgeschätzt werden kann und bei der zweiten Abschätzung die Cauchy-Schwarzsche Ungleichung.
qed

In einem Dreieck ist die Summe der Längen zweier Seiten mindestens gleich der Länge der dritten Seite. Daher die Bezeichnung für die zweite Ungleichung. In euklidischen Vektorräumen können wir mittels des Cosinus den Winkel zwischen zwei Vektoren definieren:
\[\angle(v,v')=\arccos \frac{\langle v,v'\rangle}{|v|\,|v'|}\in [0,\pi].\] Dies macht Sinn, da wegen der Cauchy-Schwarzschen Ungleichung das Argument im Intervall $[-1,1]$ liegt.

Definition. Eine Teilmenge $M\subset V\setminus \{0\}$ eines Hilbertraumes heißt

  1. Orthogonalsystem, wenn je zwei verschiedene Vektoren in $M$ orthogonal zueinander sind.

  • Orthonormalsystem (kurz ONS), wenn $M$ ein Orthogonalsystem ist und zusätzlich jedes Element Einheitsvektor ist.
  • Orthonormalbasis (kurz ONB), wenn $M$ ein Orthonormalsystem ist und zusätzlich eine Basis von $V$ bildet.
  • Sind $v_1, \ldots, v_n$ paarweise verschiedene Vektoren eines Orthogonalsystems $M$, so sind sie linear unabhängig. Denn gilt $\sum_j \lambda_j v_j=0$, so ist
    \[0=\langle v_k,\sum_j\lambda_jv_j\rangle= \sum_j\lambda_j\langle v_k,v_j\rangle= \lambda_k\langle v_k,v_k\rangle,\] also ist $\lambda_k=0$.

    Satz. (Gram-Schmidtsches Orthonormalisierungsverfahren) Sind $v_1,\ldots, v_n\in V$ linear unabhängig, so gibt es ein Orthonormalsystem $e_1,\ldots, e_n\in V$ mit der Eigenschaft: Für jedes $j \leq n$ spannen $v_1,\ldots, v_j$ und $e_1, \ldots,e_j$ denselben Untervektorraum auf.

    Beweis. Die Vektoren $e_i$ werden induktiv konstruiert. Es ist $v_1\not= 0$, also ist \[e_1 =\frac{v_1}{|v_1|}\] definiert und ein Einheitsvektor. Bilden $e_1,\ldots, e_k\in V$ ein Orthonormalsystem, so dass für alle $j\leq k$ die Vektoren $e_1,\ldots, e_j$ denselben Unterraum aufspannen, wie $v_1,\ldots, v_j$, so setzen wir \[w_{k+1}=v_{k+1}-\sum_{j=1}^k\langle e_j,v_{k+1}\rangle e_j.\] Dieser Vektor $w_{k+1}$ ist orthogonal zu $e_1,\ldots,e_k$ und von Null verschieden, da $v_{k+1},e_1,\ldots, e_k$ linear unabhängig sind. Wir setzen
    \[e_{k+1}:=\frac{w_{k+1}}{|w_{k+1}|}.\]qed

    Dieses Orthonormalisierungsverfahren lässt sich auch für abzählbar unendlich viele Vektoren $v_1, v_2, v_3, \dots$ durchführen. Aus dem Basisergänzungssatz erhalten wir mit Hilfe dieses Verfahrens:

    Satz. Ist $V$ ein endlich dimensionaler Hilbertraum, so kann jedes Orthonormalsystem zu einer Orthonormalbasis ergänzt werden. Insbesondere gibt es Orthonormalbasen.

    Bemerkung. Die $k$-te Koordinate eines Vektors $v\in V$ bezüglich einer Orthonormalbasis $e_1,\ldots, e_n$ ist gegeben durch $\langle e_k,v\rangle$.

    Beweis. Aus $v=\sum_j\lambda_je_j$ folgt $\langle e_k,v\rangle= \lambda_k$.
    qed

    Satz. Es sei $M=\{e_1,\ldots,e_n\}\subset V$ ein Orthonormalsystem. Es sei $v\in V$ und $\lambda_j=\langle e_j,v\rangle$.

    1. Für beliebige $\mu_1,\ldots,\mu_n\in {\mathbb K}$ gilt immer die Besselsche Ungleichung
      \[\left\vert v-\sum_{j=1}^n\lambda_j e_j \right\vert\leq
      \left\vert v-\sum_{j=1}^n\mu_j e_j\right\vert.\]
    2. Es gilt die Parsevalsche Ungleichung
      \[\sum_{j=1}^n|\lambda_j|^2\leq |v|^2.\]
    3. Es ist $M$ genau dann eine Orthonormalbasis, wenn für alle $v\in V$ Gleichheit gilt
      \[\sum_{j=1}^n|\lambda_j|^2= |v|^2.\]

    Beweis. Es ist $e_k$ orthogonal zu $v-\sum_j\lambda_j e_j$. Also ist $v-\sum\lambda_j e_j$ orthogonal zu jeder Linearkombination der Vektoren $e_k$.

    • Nach dem Satz des Pythagoras gilt folglich
      \begin{eqnarray*}
      \left\vert v-\sum\mu_j e_j\right\vert^2&=&
      \left\vert (v-\sum\lambda_j
      e_j)-\sum(\mu_j-\lambda_j)e_j\right\vert^2\\
      &=&
      \left\vert v-\sum\lambda_j
      e_j\right\vert^2+\left\vert \sum(\mu_j-\lambda_j)e_j\right\vert^2\\
      &\geq&\left\vert v-\sum\lambda_je_j\right\vert.
      \end{eqnarray*}
    • Die Parsevalsche Ungleichung ergibt sich durch bilineares Ausrechnen
      \begin{eqnarray*}
      0&\leq&
      \left\langle v-\sum\lambda_je_j,v-\sum\lambda_je_j\right\rangle\\
      &=&
      \left\langle v-\sum\lambda_je_j,v\right\rangle\\
      &=&
      \langle v,v\rangle-\sum
      \bar{\lambda}_j\langle e_j,v\rangle\\
      &=&
      \langle v,v\rangle-\sum
      \bar{\lambda}_j\lambda_j.
      \end{eqnarray*}
    • Das Ungleichung in der soeben durchgeführten Abschätzung ist genau dann eine Gleichung, wenn $v$ in der linearen Hülle der Vektoren $e_1, \ldots, e_n$ liegt. Daraus folgt die Behauptung.

    qed

    Es sei $U$ ein Untervektorraum eines Hilbertraumes $V$. Der Raum
    \[U^\perp=\{v\in V\,|\, \text{für alle $u\in U$ ist $\langle u,v\rangle=0$}\}\] heißt orthogonales Komplement von $U$ in $V$.

    Proposition. Ist $U\subset V$ ein endlich dimensionaler Untervektorraum, so ist $V$ direkte Summe der Untervektorräume $U$ und $U^\perp$,
    \[V=U\oplus U^\perp.\]

    Beweis. Wegen der Sesquilinearität (bzw. Bilinearität) des Skalarproduktes ist $U^\perp$ ein linearer Unterraum von $V$. Ist $v\in U\cap U^\perp$, so gilt $\langle v,v\rangle=0$ und damit $v=0$. Bilden $e_1,\ldots,e_n$ eine Orthonormalbasis von $U$, so liegt für $v\in V$ der Vektor \[p(v):= v-\sum_{k=1}^n\langle e_k,v\rangle e_k\] in $U^\perp$. Folglich gilt $V=U+U^\perp$. qed

    Die eben im Beweis konstruierte Abbildung $p$ erfüllt die Eigenschaft $p\circ p=p$. Ein Endomorphismus $p:V\to V$ eines Vektorraumes mit dieser Eigenschaft wird Projektion genannt.

    Proposition. Ist $p:V\to V$ eine Projektion, so zerlegt sich der Vektorraum $V$ in eine direkte Summen $V=\ker (p)\oplus \mathrm{im} (p)$. Umgekehrt definiert eine direkte Summen-Zerlegung $V=U\oplus U'$ eindeutig eine Projektion $p:V\to V$ mit $U=\mathrm{im} (p)$ und $U'=\ker(p)$.

    Beweis. Ist $p$ eine Projektion, so ist auch $q=id_V-p:V\to V$ wegen \[q\circ q=(id_V-p)\circ(id_V-p)=id_V-2p+p^2=id_V-p=q\] eine Projektion. Aus der Gleichung $q\circ p=0$ folgt $\mathrm{im}(p)\subseteq \ker(q)$. Ist $v\in \ker (q)$, also $v-p(v)=0$, so ist $v=p(v)$ im Bild von $p$. Es folgt $\ker(q)=\mathrm{im}(p)$ und analog $\mathrm{im}(q)=\ker(p)$.
    Aus der Gleichung $p+q=id_V$ folgt nun zum Einen
    \[\mathrm{im}(p)\cap \ker(p)=\ker(q)\cap \ker(p)\subseteq \ker(p+q)=\ker(id_V)=0.\] zum Anderen aber auch
    \[\mathrm{im}(p)+ \ker(p)= \mathrm{im}(p)+\mathrm{im}(q)\supseteq \mathrm{im}(p+q)=\mathrm{im}(id_V)=V\] und damit die behauptete Summen-Zerlegung.
    Ist $V=U\oplus U'$, so hat jeder Vektor $v\in V$ eine eindeutige Darstellung der Form $v=u+u'$ mit $u\in U$ und $u'\in U'$. Dann ist $v\mapsto u$ die eindeutige Projektion mit Kern $U'$.
    qed

    Ist $p:V\to V$ Projektion eines Hilbertraumes mit $U=\mathrm{im}(p)$, so nennt man $p$ orthogonale Projektion auf $U$, wenn Kern und Bild senkrecht zueinander stehen, wenn also gilt
    \[V=\mathrm{im}(p)\perp \ker(p).\]

    Satz. Ist $U$ endlich dimensionaler Untervektorraum eines Hilbertraumes $V$, so gilt:

    1. Es gibt genau eine orthogonale Projektion auf $U$.
    2. Ist $p$ orthogonale Projektion auf $U$, so gilt für $u\in U$ und $v\in V$ immer $|u-v|\ge\left\vert p(v)-v\right\vert$. Aus $|u-v|=\left\vert p(v)-v\right\vert$ folgt $u=p(v)$.

    Gemäß der zweiten Aussage bildet die orthogonale Projektion einen Vektor auf denjenigen Vektor in $U$ ab, der den kleinsten Abstand hat, das Lot von $v$ auf $U$.

    Beweis. Die erste Behauptung folgt sofort aus der obigen Proposition. Zur zweiten betrachten wir folgende Kette von Gleichungen und Ungleichungen
    \begin{eqnarray*}
    |u-v|^2=\left\vert p(u)-v\right\vert^2&=&\left\vert p(u)-p(v)+p(v)-v\right\vert^2\\
    &=&\left\vert p(u)-p(v)\right\vert^2+\left\vert p(v)-v\right\vert^2\\
    &\ge&\left\vert p(v)-v\right\vert^2.
    \end{eqnarray*}
    Gilt Gleichheit, so folgt $\left\vert p(u)-p(v)\right\vert^2=0$, mithin $p(u)-p(v)=u-p(v)=0$. Die Gleichheit zwischen erster und
    zweiter Zeile gilt nach dem Satz von Pythagoras, da $p(v)-v\in \ker(p)$ orthogonal zu $p(u)-p(v)\in \mathrm{im}(p)$ ist.
    qed

    Satz. (Hessesche Normalform) Es sei $V$ ein endlich dimensionaler euklidischer Vektorraum. Jede affine Hyperebene $H$ von $V$ läßt sich in der Form \[H=\{h\in V\,|\, \langle e,h\rangle=c\}\] mit einem Einheitsvektor $e$ und einer reellen Zahl $c\ge 0$ schreiben. Die Zahl $c$ ist eindeutig durch $H$ bestimmt; ist $c>0$, so ist auch $e$ eindeutig durch $H$ bestimmt. Ist $c=0$, so ist $e$ bis auf das Vorzeichen eindeutig.

    Beweis. Die Hyperebene $H$ ist eine Menge der Form $H=h+U$ für ein Element $h\in H$ und einem Untervektorraum $U\subset V$ der Dimension $\dim(U)=\dim(V)-1$. Sei $e$ ein Einheitsvektor im orthogonalen Komplement von $U$. Dann hat $h$ die Form $h=ce+u$ mit einem $u\in U$. Folglich ist $H=ce+U$. Wir können $c\ge 0$ annehmen, indem wir gegebenenfalls $e$ durch $-e$ ersetzen. Dann ist $H=\{h\,|\, \langle e,h\rangle=c$. qed

    Sei $\langle e,h\rangle=c$ die Hessesche Normalform einer Hyperebene $H\subset V$. Für $h=ce+u\in H$ mit $u\in e^\perp$ gilt nach dem Satz des Pythagoras $|h|^2=|u|^2+c^2$. Deshalb ist $c$ der minimale Abstand eines Punktes in $H$ vom Nullpunkt; man nennt $c$ den Abstand der Hyperebene $H$ vom Nullpunkt. Ist $\langle
    e,v\rangle=d$, so heißt $d-c$ der orientierte Abstand von $v$ und $H$. Das Wort orientiert deutet auf Zusatzinformation hin: Neben dem Abstand von der Hyperebene wird auch unterschieden, auf welcher Seite der Hyperebene der Punkt $v$ liegt. Die Hyperebene zerlegt nämlich $V$ in zwei Halbräume; es gilt $V\setminus H= V^+\cup V^-$. Der orientierte Abstand ist für $v\in V^+$ positiv und entsprechend für $v\in V^-$ negativ. Der Nullvektor ist nie Element in $V^+$.

    Unterstützt von Drupal