\documentclass[12pt, a4paper]{report} \PassOptionsToPackage{dvipsnames}{xcolor} \usepackage{tikz} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{enumitem} \usepackage{amsthm} \usepackage{amssymb} \usepackage{marvosym} \usepackage{mathtools} \usepackage[colorlinks=true, linkcolor=magenta]{hyperref} \usepackage{cancel} \usepackage[ngerman]{babel} \usepackage{harpoon} \usetikzlibrary{tikzmark,calc,arrows,angles,math} \title{Lineare Algebra 2} \date{Sommersemester 2022} \author{Philipp Grohs \\ \small \LaTeX-Satz: Anton Mosich} \newtheoremstyle{theostyle}% {3pt}% {3pt}% {}% {}% {\bfseries}% {:}% {\newline}% {}% \newcounter{textbox} \def\tl{\stepcounter{textbox}\tikzmarknode{a\thetextbox}{\strut}} \def\br{\tikzmarknode{b\thetextbox}{\strut}\begin{tikzpicture}[overlay, remember picture]\draw ($(a\thetextbox.north west)+(-0.4\arraycolsep,0ex)$) rectangle ($(b\thetextbox.south east)+(0.2\arraycolsep,0ex)$);\end{tikzpicture}} % https://tex.stackexchange.com/questions/481978/how-to-write-the-block-matrix-in-latex \newcommand*{\vect}[1]{\overrightharp{\ensuremath{#1}}} \newcommand\R{\ensuremath{\mathbb{R}}} \newcommand\C{\ensuremath{\mathbb{C}}} \newcommand\K{\ensuremath{\mathbb{K}}} \theoremstyle{theostyle} \newtheorem{theo}{Theorem}[section] \newtheorem{lemma}[theo]{Lemma} \newtheorem{defin}[theo]{Definition} \newtheorem{satz}[theo]{Satz} \newtheorem{korollar}[theo]{Korollar} \newtheorem{folgerung}[theo]{Folgerung} \DeclareMathOperator{\sgn}{sgn} \DeclareMathOperator{\spec}{spec} \DeclareMathOperator{\spur}{sp} \DeclareMathOperator{\Hom}{Hom} \DeclareMathOperator{\adj}{adj} \DeclareMathOperator{\id}{id} \DeclareMathOperator{\diag}{diag} \DeclareMathOperator{\eig}{Eig} \DeclareMathOperator{\nxn}{n \times n} \DeclareMathOperator{\im}{im} \newcommand\homkv{\Hom_\K(V, V)} \newcommand\homk{\Hom_\K} \newcommand\inner[2]{\langle #1, #2 \rangle} \newcommand\norm[1]{\lVert #1 \rVert} \begin{document} \maketitle \tableofcontents \chapter{Determinanten} \section{Permutationen} \begin{defin} Sei $n \in \mathbb{N} \setminus \{0\}, [n] := \{1, 2, \dots, n\}$. \\ Eine bijektive Abbildung $\pi:[n]\to[n]$ heißt \underline{Permutation} von $[n]$. Wir definieren die \underline{symmetrische Gruppe} $S_n := \{\pi\text{ Permutation von }[n]\}$ mit der Hintereinanderausführung als Gruppenoperation. \end{defin} \subsubsection{Bemerkung} \begin{itemize} \item $(S_n, \circ)$ ist eine Gruppe. \item $\pi\in S_n$ ist eindeutig durch das Tupel $(\pi(1), \dots, \pi(n))$ definiert. \item Fixpunkte $(\pi(i)=i)$ werden oft weggelassen. \end{itemize} \begin{defin} $\pi\in S_n$ heißt \underline{Transposition} wenn es $i, j\in [n]$ gibt mit \[\pi(k) = \begin{cases} k & k\notin\{i, j\}\\ i & k = j\\ j & k=i \end{cases}\] Wir schreiben $\pi = (ij)$. \end{defin} \begin{satz} \label{theo:1.1.3} Es gilt $\lvert S_n \rvert = n!$. \begin{proof} Vollständige Induktion \begin{itemize} \item $n=1: S_1 = \{\id\}\implies\lvert S_1\rvert = 1 = 1!$ \item $n-1\to n:$\\ Angenommen $\lvert S_{n-1} \rvert = (n-1)!$. Dann gilt $\lvert\{\pi \in S_n: \pi(n) = n\}\rvert = (n-1)!$. Sei allgemein $i\in[n]$. Dann gilt $\pi(n)=i \iff (in)\circ\pi(n)=n$. Also gilt \begin{align*} & \lvert\{\pi\in S_n: \pi(n)=i\}\rvert = \lvert\{(in)\circ\pi: \pi(n)=n\}\rvert \\ & = \lvert\{\pi: \pi(n)=n\}\rvert = (n-1)! \end{align*} Weiters gilt \begin{align*} & S_n = \bigcup_{i\in[n]}^\bullet\{\pi\in S_n: \pi(n)=i\} \implies \\ & \lvert S_n\rvert = \sum_{i\in[n]}\lvert\{\pi \in S_n: \pi(n) = i\}\rvert = n\cdot(n-1)! = n! \end{align*} \end{itemize} \end{proof} \end{satz} \begin{satz} \label{theo:1.1.4} Für $n\in \mathbb{N}_{\ge2}$ ist jedes $\pi \in S_n$ das Produkt von (endlich vielen) Transpositionen. \begin{proof} \begin{itemize} \item $n=2: S_2 = \{\id, (2 1)\}$ \item $n-1\to n$\\ Sei $\pi \in S_n$. Dann gilt (siehe Beweis von Satz \ref{theo:1.1.3}) mit $i=\pi(n)$, dass \[\underbrace{(i n)\pi}_{\pi_i}(n) = n\] Sei $\pi_i = (\underbrace{\pi_i(1) \dots \pi_i(n-1)}_{\in S_{n-1}} n) \underset{\text{Induktions VS}}{\implies} \pi_i = (i_1 j_1) \dots (i_k j_k)$.\\ Außerdem gilt $\pi = (i n)\pi_i$, also $\pi = (i n)(i_1 j_1) \dots (i_k j_k)$ \end{itemize} \end{proof} \end{satz} \subsubsection{Bemerkung} \begin{itemize} \item Produktdarstellung ist nicht eindeutig, zum Beispiel:\\ $(3 1 2) = (2 1)(3 1) = (3 1)(3 2)$ \item $f\in \mathbb{Z}[X_1, \dots, X_n], \pi \in S_n$\\$\pi f(X_1, \dots, X_n) := f(X_{\pi(1)}, \dots, X_{\pi(n)})$ \end{itemize} \subsubsection{Beispiel} $\pi = (2 3 1), f(X_1, X_2, X_3) = X_1-X_2+X_1X_3 \implies \pi f(X_1, X_2, X_3) = X_2 - X_3 + X_2X_1$ \begin{lemma} \label{theo:1.1.5} Sei $f(X_1, \dots, X_n) = \prod\limits_{\substack{i, j\in[n]\\ i < j}} (X_j-X_i)\in \mathbb{Z}[X_1, \dots, X_n]$.\\ Dann gilt \begin{enumerate}[label=\alph*)] \item Zu jedem $\pi \in S_n$ existiert eine eindeutig Zahl $s(\pi) \in \{-1, 1\}$ mit $\pi f = s(\pi)f$. \item Für $\pi$ eine Transposition gilt $s(\pi) = -1$. \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item \begin{equation*}\begin{aligned} \pi f(X_1, \dots, X_n) & = \prod_{i\pi(j)\}\rvert}\prod_{i\pi(j)\}\rvert} \end{aligned}\end{equation*} \item $\pi = (i j), i \pi(y)$\\ Für alle anderen Paare gilt $x3 \to $ Gaußalgorithmus \begin{defin} Sei $A\in\K^{n\times n}$ und $i, j\in[n]$. Sei $M_{ij}\in\K^{n\times n}$ die Matrix, welche durch Ersetzung der j-ten Spalte durch den i-ten Einheitsvektor $e_j$ entsteht.\\ $A_{ij}:=\det(M_{ij})$ heißt \underline{Kofaktor} (zum Indexpaar $(i, j)$). \begin{equation*} \bordermatrix{ &&&&j \cr &a_{11}&\dots &a_{1i-1}&0&a_{1i+1}&\dots&a_{1n} \cr &\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots \cr i&a_{ji}&\dots&a_{ji-1}&1&a_{ji+1}&\dots&a_{jn}\cr &\vdots&\ddots&\vdots&\vdots&\vdots&\ddots&\vdots \cr &a_{n1}&\dots &a_{ni-1}&0&a_{ni+1}&\dots&a_{nn} } = M_{ij}=(a_{\_1}, \dots, \underbrace{e_i}_{j}, \dots, a_{\_n}) \end{equation*} \end{defin} \subsubsection{Bemerkung} Es gilt \begin{equation}\label{crazymatrix} A_{ij}=\begin{vmatrix} a_{11} & \dots & a_{1i-1} & 0 & a_{1i+1} & \dots & a_{1n} \\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{ji} & \dots & a_{ji-1} & 1 & a_{ji+1} & \dots & a_{jn} \\ \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\ a_{n1} & \dots & a_{ni-1} & 0 & a_{ni+1} & \dots & a_{nn} \end{vmatrix} \end{equation} da obige Matrix aus $M_{ij}$ durch Spaltenadditionen hervorgeht. \begin{lemma} Sei $\tilde{A_{ij}}\in\K^{(n-1)\times(n-1)}$ die Matrix, welche aus A durch Streichung der i-ten Spalte und j-ten Zeile hervorgeht und $D_{ij}:=\det(\tilde{A_{ij}})$. Dann gilt \[A_{ij}=(-1)^{i+j}D_{ij}\] \begin{proof} Transformiere durch ($i-1$) Spaltenvertauschungen und ($j-1$) Zeilenvertauschungen die Matrix \ref{crazymatrix} auf \[ B_{ij} = \begin{pmatrix} 1 & 0 & \dots & 0 \\ 0 & & & \\ \vdots & & \tilde{A_{ij}} & \\ 0 & & & \end{pmatrix} \] Es gilt $\lvert B_{ij}\rvert=D_{ij}$ und $\lvert B_{ij}\rvert=(-1)^{(i-1)+j(-1)}A_{ij}$ woraus die Behauptung folgt. \end{proof} \end{lemma} \begin{satz}[Entwicklungssatz von Laplace] Sei $A\in\K^{n\times n}$ und $i, j\in[n]$. Dann gilt \begin{enumerate}[label=\alph*)] \item $\det(A) = \sum\limits_{l=1}^na_{il}A_{il} = \sum\limits_{l=1}^n(-1)^{l+i}a_{il}D_{il}$ \item $\det(A) = \sum\limits_{l=1}^na_{lj}A_{lj} = \sum\limits_{l=1}^n(-1)^{l+j}a_{lj}D_{lj}$ \end{enumerate} \begin{proof} b) \[\begin{aligned} \det(A) & = \det(a_{\_1}, \dots, a_{\_n})= \\ & =\det(a_{\_1}, \dots, \underbrace{\sum_{l=1}^na_{lj}e_l}_{=a_{\_j}}, \dots, a_{\_n})= \\ & =\sum_{l=1}^n a_{lj}\det(a_{\_1}, \dots, \underbrace{e_l}_{j}, \dots, a_{\_n}) = \\ & = \sum_{l=1}^n a_{lj}A_{lj} \end{aligned} \] a) analog (angewendet auf $A^T$). \end{proof} \end{satz} \begin{satz}[Cramer'sche Regel] Sei $\adj(A)=(A_{ji})_{i, j\in[n]}$. Dann gilt \[A\cdot \adj(A) = \det(A)\cdot I_n\] \begin{proof} Sei $B=A\cdot\adj(A)\implies$ \[\begin{aligned} b_{ij} & = \sum_{k=1}^n a_{ik} A_{jk} \\ & = \sum_{k=1}^n a_{ik} \det(a_{\_1}, \dots, \underbrace{e_j}_{k}, \dots, a_{\_n}) \\ & = \sum_{k=1}^n a_{ik} \bordermatrix{ & & & k & & \\ & a_{11} & \dots & a_{1k} & \dots & a_{1n} \\ & \vdots & \ddots & \vdots & \ddots & \vdots \\ j & 0 & \dots & 1 & \dots & 0 \\ & \vdots & \ddots & \vdots & \ddots & \vdots \\ & a_{n1} & \dots & a_{nk} & \dots & a_{nn} \\ } \\ & = \det\left(\bordermatrix{ & \\ & a_{1\_} \\ & \vdots \\ j \to & a_{i\_} \\ & \vdots \\ & a_{n\_}}\right) \\ & = \begin{cases}0& i\neq j \\ \det(A) & i=j\end{cases} \end{aligned}\] \end{proof} \end{satz} \begin{folgerung} Sei $A\in\K^{n\times n}$ invertierbar. Sei $x\in\K^n$ die eindeutige Lösung des linearen Gleichunssystems $Ax=b$. Dann gilt \[ x_i= \det(A)^{-1} \det(a_{\_1}, \dots, \underbrace{b}_{i}, \dots, a_{\_n}) \] \begin{proof} \[\begin{aligned} & A^{-1}=\frac{1}{\det(A)}(A_{ji}) \\ & \implies \det(A)x_i=\sum_{j=1}^n A_{ji}b_j & = \sum_{j=1}^n b_j \det(a_{\_1}, \dots, \underbrace{e_j}_{i}, \dots, a_{\_n}) \\ & & =\det(a_{\_1}, \dots, \underbrace{b}_{i}, \dots, a_{\_n}) \end{aligned}\] \end{proof} \end{folgerung} \subsubsection{Blockmatrizen} \begin{defin} $A\in\K^{n\times n}$ heißt \underline{obere Blockmatrix} wenn $\exists p\in \{1, \dots, n-1\}$ mit $a_{ij}=0$ für $p+1\le i\le n, 1\le j\le p$, d.h. \begin{equation} \label{blockmatrix} A=\bordermatrix{ \ &\overbrace{}^{p} & \overbrace{}^{n-p} \cr p\{\ & P & D \cr % } TODO geschwungene Klammern besser machen n-p\{\ &0&Q} % } \end{equation} Analog sind \underline{untere Blockmatrizen} definiert. \end{defin} \begin{satz} \label{theo:1.4.10} Sei $A$ obere Blockmatrix wie in \ref{blockmatrix}. Dann gilt $\det(A)= \det(P) \det(Q)$ \begin{proof} Sei $A = \begin{pmatrix} P & D \\ 0 & Q \end{pmatrix}$.\\ Wende elementare Zeilenumformungen der ersten $p$ Zeilen an, sodass $P$ obere Dreiecksform hat (mit $s$ Zeilenvertauschungen) und elementare Zeilenumformungen der letzten $n-p$ Zeilen sodass $Q$ obere Dreiecksform hat (mit $t$ Zeilenvertauschungen). Bezeichne das Ergebnis mit $A'= \begin{pmatrix} P' & D \\ 0 & Q' \end{pmatrix}$, wobei $P', Q'$ obere Dreiecksform haben.\\ Es folgt, dass $A', P', Q'$ obere Dreiecksform hat. Da die Determinante oberer Dreiecksmatrizen das Produkt der Diagonalelemente ist, gilt $\det(A')=\det(P')\det(Q')$.\\ Weiters gilt $\det(A')=(-1)^{s+t} \det(A)$ (insgesamt $s+t$ Vertauschungen) und $\det(P')= (-1)^s \det(P), \det(Q') = (-1)^t \det(Q)$. Daraus folgt die Behauptung. \end{proof} \end{satz} \chapter{Eigenwerte und Eigenvektoren} \section{Diagonalisierbarkeit} \begin{defin} $D\in \K^{n\times n}$ heißt \underline{Diagonalmatrix} wenn $\forall i\neq j: d_{ij}=0$. Wir schreiben auch \[ \diag(\lambda_1, \dots, \lambda_n):=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} \] \end{defin} \subsubsection{Bemerkung} \begin{itemize} \item $A\in \K^{n\times m} \implies \diag(\lambda_1, \dots, \lambda_n)A = \begin{pmatrix} \lambda_1 a_{1\_} \\ \vdots \\ \lambda_n a_{n\_}\end{pmatrix}$ \item $\diag(\lambda_1, \dots, \lambda_n)^k = \diag(\lambda_1^k, \dots, \lambda_n^k)$ \end{itemize} \begin{defin} \leavevmode \begin{enumerate}[label=\alph*)] \item $\alpha \in \homkv, \dim(V)<\infty$ heißt \underline{diagonalisierbar} (bzgl. $B$) wenn eine geordnete Basis $B$ existiert mit ${}_B M(\alpha)_B$ Diagonalmatrix \item $A\in\K^{n\times n}$ heißt diagonalisierbar wenn eine invertierbare Matrix $P\in\K^{n\times n}$ existiert mit $P^{-1}AP$ Diagonalmatrix. \end{enumerate} \end{defin} \begin{lemma} Sei $V$ $\K$-Vektorraum mit $\dim(V)=n<\infty$. Dann gilt für $\alpha\in\homkv$ und $C$ Basis: \[\alpha \text{ diagonalisierbar} \iff {}_C M(\alpha)_C \text{ diagonalisierbar}\] \begin{proof} \begin{itemize} \item[$\implies$] Sei $\alpha$ diagonalisierbar und $B$ eine Basis mit $_B M(\alpha)_B$ Diagonalmatrix. Dann gilt \[ \begin{aligned} {}_B M(\alpha)_B & = {}_B M(\id)_C \cdot {}_C M(\alpha)_C \cdot {}_C M(\id)_B \\ & = {}_C M(\id)_{B^{-1}} \cdot {}_C M(\alpha)_C \cdot {}_C M(\id)_B\end{aligned}\] Also ist ${}_C M(\alpha)_C$ diagonalisierbar. \item[$\impliedby$] Sei ${}_C M(\alpha)_C$ diagonalisierbar und $P$ invertierbar mit $P^{-1}\cdot {}_C M(\alpha)_C \cdot P$ Diagonalmatrix. Sei $B$ Basis mit $P={}_C M(\id)_B$. Dann gilt ${}_B M(\alpha)_B$ ist Diagonalmatrix. \end{itemize} \end{proof} \end{lemma} \begin{lemma} \label{theo:2.1.4} \leavevmode \begin{enumerate}[label=\alph*)] \item $\alpha \in \homkv$ ist diagonalisierbar genau wenn es eine Basis $B=(b_1, \dots, b_n)$ und $\lambda_1, \dots, \lambda_n\in\K$ gibt mit $\forall i=1, \dots, n:\alpha(b_i)=\lambda_i b_i$. \item $A\in\K^{n\times n}$ ist diagonalisierbar genau wenn es eine geordnete Basis $B= (b_1, \dots, b_n)$ von $\K^n$ gibt mit $\forall i=1, \dots, n: A b_i = \lambda_i b_i$. \end{enumerate} \begin{proof} \begin{enumerate} [label=\alph*)] \item die Bedingung ist äquivalent zu ${}_B M(\alpha)_B$ diagonalisierbar. \item Spezialfall von a). \end{enumerate} \end{proof} \end{lemma} \section{Eigenwerte und Eigenvektoren} \begin{defin} \label{theo:2.2.1} \leavevmode \begin{enumerate}[label=\alph*)] \item Sei $\alpha \in \homkv$. $\lambda\in\K$ heißt \underline{Eigenwert} von $\alpha$ wenn es einen Vektor $v\in V\setminus\{0\}$ gibt mit $\alpha(v)=\lambda v$. $v$ heißt \underline{Eigenvektor} zu $\lambda$.\\ Die Menge aller Eigenwerte von $\alpha$ heißt \underline{Spektrum} von $\alpha; \spec(\alpha)$ \item Sei $A \in \K^{n\times n}$. $\lambda\in\K$ heißt \underline{Eigenwert} von $A$ wenn es $v\in \K^n\setminus\{0\}$ gibt mit $A v = \lambda v$. $v$ heißt \underline{Eigenvektor} zu $\lambda$.\\ Die Menge aller Eigenwerte von $A$ heißt \underline{Spektrum} von $A; \spec(A)$ \end{enumerate} \end{defin} \begin{lemma} \label{theo:2.2.2} \leavevmode \begin{enumerate}[label=\alph*)] \item $\alpha \in \homkv$ diagonalisierbar $\iff \exists$ Basis aus Eigenvektoren. \item $A \in \K^{n\times n}$ diagonalisierbar $\iff \exists$ Basis aus Eigenvektoren. \end{enumerate} \begin{proof} Folgt direkt aus Lemma \ref{theo:2.1.4} und Definition \ref{theo:2.2.1} \end{proof} \end{lemma} \begin{defin} \leavevmode \begin{enumerate}[label=\alph*)] \item Sei $\alpha \in \homkv$ und $\lambda \in \spec(\alpha)$. Dann heißt $\eig_\alpha(\lambda):=\{v\in V: \alpha(v) = \lambda v \}$ der zugehörige \underline{Eigenraum}. \item Sei $A \in \K^{n\times n}$ und $\lambda \in \spec(A)$. Dann heißt $\eig_A(\lambda):=\{v\in \K^n: A v = \lambda v \}$ der zugehörige \underline{Eigenraum}. \end{enumerate} \end{defin} \begin{lemma} Sei $\alpha \in \homkv / A\in\K^{n\times n}$ und $\lambda \in \spec(\alpha)/\lambda\in\spec(A)$.\\ Dann ist $\eig_\alpha(\lambda)/\eig_A(\lambda)$ ein Unterraum von $V/\K$. \begin{proof} Nur für $\alpha\in\homkv$ \begin{itemize} \item $ 0 = \alpha(0) = \lambda \cdot 0 \implies 0 \in \eig_\alpha(\lambda) $ \item $v, w\in \eig_\alpha(\lambda) \implies \alpha(v+w) = \alpha(v) + \alpha(w) = \lambda v + \lambda w = \lambda(v + w) \implies v + w \in \eig_\alpha(V)$ \item $\mu \in \K, v \in \eig_\alpha(\lambda) \implies \alpha(\mu v) = \mu \cdot \alpha(v) = \mu \cdot \lambda \cdot v = \lambda \cdot (\mu \cdot v) \implies \mu \cdot v \in \eig_\alpha(\lambda)$ \end{itemize} \end{proof} \end{lemma} \begin{satz} Sei $\alpha \in \homkv$ und $B$ Basis. Dann gilt \[\begin{aligned} & \spec(\alpha) = \spec({}_B M(\alpha)_B) \\ & {}_B\Phi(\eig_\alpha(\lambda)) = \eig_{{}_B M(\alpha)_B}(\lambda) \end{aligned}\] \begin{proof} Sei $\lambda \in \spec(\alpha)$ und $v\in\eig_\alpha(\lambda)$. Dann gilt \[ \alpha(v) = \lambda v \iff {}_B M(\alpha)_B \cdot {}_B v = \lambda \cdot {}_B v \] \end{proof} \end{satz} \begin{defin} \leavevmode \begin{enumerate}[label=\alph*)] \item Sei $\alpha \in \homkv, \dim(V)<\infty$ und $B$ Basis. Dann heißt die Funktion \[ \chi_\alpha:\begin{cases}\K \to \K \\ \lambda \mapsto \det({}_B M(\alpha)_B - \lambda \cdot I_n)\end{cases} \] \underline{charakteristisches Polynom} von $\alpha$. \item Sei $A \in \K^{n\times n}$. Dann heißt die Funktion \[ \chi_A:\begin{cases}\K \to \K \\ \lambda \mapsto \det(A - \lambda \cdot I_n)\end{cases} \] \underline{charakteristisches Polynom} von $A$. \end{enumerate} \end{defin} \subsubsection{Bemerkung} $\genfrac{}{}{0pt}{0}{\chi_\alpha}{\chi_A}$ ist Polynom vom Grad $\le\genfrac{}{}{0pt}{0}{\dim(V)}{n}$, da \[\begin{aligned} & \chi_A(\lambda)=\sum_{\pi \in S_n} \tilde{a}_{1\pi(1)}^{(\lambda)} \cdots \tilde{a}_{n\pi(n)}^{(\lambda)} \text{ mit} \\ & \tilde{a}_{ij}^{(\lambda)} = \begin{cases} a_{ij} & i\neq j \\ a_{ij}-\lambda & i=j \end{cases} \dots \text{ Polynom von Grad $0$ oder $1$} \end{aligned}\] \begin{lemma} \label{theo:2.2.7} \leavevmode \begin{enumerate}[label=\alph*)] \item $\chi_\alpha$ ist unabhängig von der Wahl der Basis. \item $\chi_A = \chi_B$ wenn $A, B$ ähnlich (das heißt $\exists P \in \K^{n \times n}: B = P^{-1}AP$) \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item Sei C weitere Basis.\\ Dann gilt $\underbrace{{}_C M(\alpha)_C}_{B} = \underbrace{{}_C M(\id)_B}_{P^{-1}} \underbrace{{}_B M(\alpha)_B}_{A} \underbrace{{}_B M(\id)_C}_{P}$. \\ Man kann also alles auf b) zurückführen. \item \[\begin{aligned} \chi_A(\lambda) & = \det(A-\lambda I) \\ & = \det(P)^{-1} \det(A - \lambda I) \det(P) \\ & = \det(P^{-1}) \det(A - \lambda I) \det(P) \\ & = \det(P^{-1}(A - \lambda I)P) \\ & = \det(P^{-1}AP-\lambda I) \\ & = \det(B - \lambda I) \\ & = \chi_B(\lambda) \end{aligned}\] \end{enumerate} \end{proof} \end{lemma} \begin{lemma} \leavevmode \begin{enumerate}[label=\alph*)] \item Sei $\alpha\in\homkv$. Dann gilt \[\spec(\alpha) = \{\lambda \in \K: \chi_\alpha(\lambda)=0\}\] \item Sei $A\in \K^{\nxn}$. Dann gilt \[\spec(A) = \{\lambda \in \K: \chi_A(\lambda)=0\}\] \end{enumerate} \begin{proof} Nur b) \[\begin{aligned} \lambda \in \spec(A) & \iff \exists v\in V \setminus \{0\}: A v = \lambda v \\ & \iff \exists v \in V \setminus \{0\}: (A - \lambda I) v = 0 \\ & \iff \ker(A - \lambda I) \neq \{0\} \\ & \iff A - \lambda I \text{ nicht injektiv} \\ & \iff \det(A - \lambda I) = 0 \end{aligned}\] \end{proof} \end{lemma} \subsubsection{Beispiele} \begin{alignat*}{3} & A = \begin{pmatrix}\bar3 & \bar4 \\ \bar1 & \bar1 \end{pmatrix} \in \mathbb{Z}_5^{2\times2} & & \\ & \chi_A(\lambda) = \begin{vmatrix} \bar3 - \lambda & \bar4 \\ \bar1 & \bar1 - \lambda \end{vmatrix} & & = (\bar3 - \lambda)(\bar1 - \lambda) - \bar4 \\ & & & = \bar3 - \bar4 \lambda + \lambda^2 - \bar4 \\ & & & = \bar4 - \bar4 \lambda + \lambda^2 = (\bar2 - \lambda)^2 \\ & \implies \spec(A) = \{2\} \\ & \eig_{\bar2}(A) = ? \\ & v \in \eig_{\bar2}(A) \iff \mathrlap{(A - \bar2 I)v = 0} \\ & \iff \mathrlap{\left(\begin{array}{c c | c} \bar3 - \bar2 & \bar4 & \bar0 \\ \bar1 & \bar1 - \bar2 & \bar0 \end{array}\right)} \\ & \left(\begin{array}{c c | c} \bar1 & \bar4 & \bar0 \\ \bar1 & \bar4 & \bar0 \end{array}\right) \\ & \left(\begin{array}{c c | c} \bar1 & \bar4 & \bar0 \\ \bar0 & \bar0 & \bar0 \end{array}\right) \\ & \implies \eig_{\bar2}(A) = \left\langle\begin{pmatrix}\bar1 \\ \bar1\end{pmatrix} \right\rangle \\ & \implies A \mathrlap{\text{ nicht diagonalisierbar [Lemma \ref{theo:2.1.4} (b)]}} \end{alignat*} \begin{lemma} Sei $A \in \C^{n\times n}$ mit reellen Einträgen. Dann gilt: \begin{enumerate}[label=\alph*)] \item $\lambda \in \spec(A) \implies \overline{\lambda} \in \spec(A)$ \item $v \in \eig_\lambda(A) \implies \overline{v} \in \eig_{\overline{\lambda}}(A)$ \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item Klarerweise ist $\chi_A(\lambda)$ ein Polynom mit reellen Koeffizienten, also $\chi_A(\lambda)=a_0+a_1 \lambda + \cdots + a_n \lambda^n, a_0, \dots, a_n\in\R$\\ Sei $\chi_A(\lambda)=0 \implies 0 = \overline0 = a_0 + a_1 \overline\lambda + \cdots + a_n \overline{\lambda} ^ n = \chi_A(\overline\lambda)$ \item $v\in\eig_\lambda(A) \implies A v = \lambda v \implies \overline{A V} = \overline{\lambda v} \implies A \overline{v} = \overline\lambda \overline{v}$ \end{enumerate} \end{proof} \end{lemma} \begin{lemma} \label{theo:2.2.10} Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig. \begin{proof} Seien $v_i \in \eig_{\lambda_i}(A), i=1, \dots, r, \lambda_i \neq \lambda_j \text{ für } i\neq j$. Induktion nach $r$ \begin{itemize} \item[$r=1$:] $v_1$ ist linear unabhängig. \item[$r-1\mapsto r$:] \begin{equation}\label{eq:2.2.10.1} \mu_1 v_1 + \cdots + \mu_1 v_1 = 0 \end{equation} \[ \implies A(\mu_1 v_1 + \cdots + \mu_r v_r) = 0 \] \begin{equation}\label{eq:2.2.10.2} \implies \lambda_1\mu_1 v_1 + \cdots \lambda_r \mu_r v_r = 0 \end{equation} Weiters folgt durch Multiplikation von \ref{eq:2.2.10.1} mit $\lambda_r$, dass \begin{equation}\label{eq:2.2.10.3} \lambda_r \mu_1 v_1 + \cdots + \lambda_r \mu_r v_r = 0 \end{equation} \[ \begin{aligned} \text{\ref{eq:2.2.10.3}} - \text{\ref{eq:2.2.10.2}} & \implies \underbrace{(\lambda_r - \lambda_1)}{\neq0} \mu_1 v_1 + \cdots + \underbrace{(\lambda_r - \lambda_{r-1})}{\neq0} \mu_{r-1} v_{r-1} = 0 \\ & \implies v_1, \dots, v_{r-1} \text{ linear abhängig. \Lightning} \end{aligned} \] \end{itemize} \end{proof} \end{lemma} \begin{lemma} Sei $\alpha \in \homkv, \dim(V)=n \text{ oder } A \in \K^{\nxn}$ mit $n$ verschiedenen Eigenvektoren. Dann ist $\alpha/A$ diagonalisierbar. \begin{proof} Wegen Lemma \ref{theo:2.2.10} gibt es Basis von Eigenvektoren. Daher ist $\alpha/A$ diagonalisierbar wegen Lemma \ref{theo:2.2.2}. \end{proof} \end{lemma} \begin{defin} Sei $\spec(A) = \{\lambda_1, \dots, \lambda_r \}$ und $(\lambda_1 - \lambda)^{k_1} \cdots (\lambda_r - \lambda)^{k_r} p \in\K[X]$ mit $p$ nicht durch Linearfaktoren teilbar (also keine Nullstellen in $\K$).\\ $k_i$ heißt \underline{algebraische Vielfachheit} des Eigenwerts $\lambda_i$. Wir schreiben $k_i = m_a(\lambda_i)$.\\ $\dim(\eig_A(\lambda_i))$ heißt \underline{geometrische Vielfachheit} des Eigenwerts $\lambda_i$. Wir schreiben $\dim(\eig_A(\lambda_i)) = m_g(\lambda_i)$ \end{defin} \subsubsection{Beispiel} \begin{itemize} \item $\chi_A(\lambda) = \lambda^4 - 2 \lambda^3 + 2 \lambda^2 - 2\lambda + 1 \in \R[X]$\\ $\implies \chi_A(\lambda) = (1 - X)^2 \underbrace{(1 + \lambda^2)}_{p(\lambda)}$ \\ $\implies m_a(1) = 2$ \item Für $\K=\C$ zerfällt jedes Polynom in Linearfaktoren, also ist $p$ immer konstant. \end{itemize} \begin{satz} Sei $\mu\in\spec(A)/\spec(\alpha)$. Dann gilt \[ 1\le m_g(\mu) \le m_a(\mu) \] \begin{proof} Klarerweise gilt $1\le m_g(\mu)$ da $\mu$ Eigenwert ist. Sei $r:= m_g(\mu)$ und $b_1, \dots, b_r$ Basis von $\eig_\alpha(\mu)$. Sei $B=(b_1, \dots, b_n)$ Basis. Dann ist\\ ${}_B M(\alpha)_B = \bordermatrix{ & & & & r & & \cr & \mu & 0 & 0 & 0 & * & \dots & * \cr & 0 & \mu & 0 & 0 & * & \dots & * \cr & \vdots & & \ddots & \vdots & \vdots & & \vdots \cr r & 0 & 0 & 0 & \mu & * & \dots & * \cr & \vdots & \vdots & \vdots & \vdots & \vdots & & \vdots \cr & 0 & 0 & 0 & 0 & * & \dots & * } $, also \[\begin{aligned} \chi_\alpha(\lambda) & = \left\lvert \begin{array}{c | c} \begin{smallmatrix}\mu - \lambda & & \\ & \ddots & \\ & & \mu - \lambda\end{smallmatrix} & A \\ \hline \\ 0 & B \end{array} \right\rvert \underbrace{=}_{\text{Satz \ref{theo:1.4.10}}} \det \begin{pmatrix} \mu - \lambda & & 0 \\ & \ddots & \\ 0 & & \mu - \lambda \end{pmatrix} \cdot \det(B) \\ & = (\mu - \lambda)^r \det(B) \\ & \implies r \le m_a(\mu) \end{aligned}\] \end{proof} \end{satz} \begin{lemma} Seien $A, B$ ähnlich und $\mu \in \spec(A) (=\spec(B) \text{ nach Lemma \ref{theo:2.2.7}})$. Dann stimmen die geometrischen Vielfachheiten überein, das heißt $\dim(\eig_\mu(A)) = \dim(\eig_\mu(B))$. \begin{proof} Sei $B = P^{-1} A P$. Dann gilt \[ \begin{aligned} \eig_{\mu}(B) & = \ker(B - \mu I) = \ker(B - \mu P^{-1} P) \\ & = \ker(P^{-1} (A - \mu I) P) \\ & \underbrace{\implies}_{\mathclap{\text{Für ähnliche Matrizen stimmen die Dimensionen der Kerne überein}}} \dim(\eig_\mu(B)) = \dim\eig_\mu(A) \end{aligned}\] \end{proof} \end{lemma} \begin{satz} $A/\alpha$ diagonalisierbar $\iff$ \begin{enumerate}[label=\roman*)] \item $\chi_{A/\alpha}$ zerfällt in Linearfaktoren, das heißt \[\chi_{A/\alpha}(\lambda)= (\lambda_1 - \lambda)^{k_1} \cdots (\lambda_r - \lambda)^{k_r}, \sum k_i = n\] \item algebraische und geometrische Vielfachheiten stimmen überein, das \\ heißt $m_a(\lambda_i) = m_g(\lambda_i), i=1, \dots, r$ \end{enumerate} \begin{proof} \begin{itemize} \item[$\impliedby$:] Aus i), ii) folgt, dass \begin{equation}\label{eq:2.2.15.1} \sum_{i=1}^r \underbrace{\dim(\eig_\alpha(\lambda_i))}_{=m_g(\lambda_i)=:d_i} = n \end{equation} Sei $b_i^1, \dots, b_i^{d_i}$ Basis von $\eig_\alpha(\lambda_i)$. Wir zeigen, dass $B=\{b_i^1, \dots, b_i^{d_i}: i=1, \dots, r\}$ Basis ist. \begin{enumerate}[label=\arabic*)] \item $\lvert B \rvert = n$ folgt aus \ref{eq:2.2.15.1} \item Ang. $\sum\limits_{i=1}^r (\underbrace{\mu_i^1 b_i^1 + \cdots + \mu_i^{d_i} b_i^{d_i}}_{v_i}) = 0$ \\ $\underbrace{\implies}_{\mathclap{\substack{v_i \text{Eigenwerte zu} \\ \text{verschiedenen Eigenvektoren} \\ + \text{Lemma \ref{theo:2.2.10}}}}} v_i = 0 \forall i=1, \dots, r \underbrace{\implies}_{\mathclap{\substack{b_i^1, \dots, b_i^{d_i} \\ \text{Basis von } \eig_\alpha(\lambda_i)}}} \mu_i^1, \dots, \mu_i^{d_i} = 0 \forall i=1, \dots, r$ \\ $ \implies B $ ist Basis aus Eigenvektoren $\underbrace{\implies}_{\mathclap{\text{Lemma \ref{theo:2.2.2}}}} \alpha $ diagonalisierbar. \end{enumerate} \item[$\implies$:] Sei $\alpha$ diagonalisierbar. \[\begin{aligned} & \implies \exists \text{ Basis } \{b_1, \dots, b_n\} \text{ aus Eigenvektoren} \\ & \implies {}_B M(\alpha)_B = \diag(\lambda_1, \dots, \lambda_n) \\ & \implies \chi_B(\lambda) = (\lambda_1 - \lambda) \cdots (\lambda_n - \lambda) \end{aligned}\] \end{itemize} \end{proof} \end{satz} \subsubsection{Diagonalisieren} \begin{enumerate}[label=\arabic*)] \item Zerlegung in Linearfaktoren \[ \chi_A(\lambda) = (\lambda_1 - \lambda)^{m_a(\lambda_1)} \cdots (\lambda_r - \lambda)^{m_a(\lambda_r)} \] \item Bestimme Basis $B_i$ der Eigenräume \[ \eig_A(\lambda_i) = \ker(A - \lambda_i I) \] \item Ordne Basis $B= \bigcup\limits_{i=1}^n B_i$ zu $B= (b_1, \dots, b_n)$ \item Mit $S = (b_1, \dots, b_n)$ gilt dann \[ \diag(\underbrace{\lambda_1, \dots, \lambda_n}_{ \mathclap{\substack{\text{Eigenwerte werden nach} \\ \text{Vielfachheit gezählt!} \\ \lambda_i \text{ ist Eigenwert von } b_i \text{!}}} }) = S^{-1} A S \] \end{enumerate} \subsubsection{Beispiel} $A = \begin{pmatrix} 1 & 2 & 2 \\ 2 & -2 & 1 \\ 2 & 1 & -2 \end{pmatrix}$ \begin{enumerate}[label=\arabic*)] \item \[\begin{aligned} \chi_A(\lambda) = & \begin{vmatrix} 1 -\lambda & 2 & 2 \\ 2 & -2 -\lambda & 1 \\ 2 & 1 & -2 -\lambda \end{vmatrix} \\ \underbrace{=}_{\mathclap{\substack{\text{Entwicklung} \\ \text{nach 1. Zeile}}}} & (1-\lambda) \begin{vmatrix} -2 -\lambda & 1 \\ 1 & -2 -\lambda \end{vmatrix} + (-2) \begin{vmatrix} 2 & 1 \\ 2 & -2-\lambda \end{vmatrix} \\ & + 2 \begin{vmatrix} 2 & -2 - \lambda \\ 2 & 1 \end{vmatrix} \\ = & \dots= -\lambda^3 - 3 \lambda^2 + 9\lambda + 27 = (3-\lambda)(-3-\lambda)^2 \end{aligned}\] \item $\lambda = 3$ \[\begin{aligned} & \left( \begin{array}{c c c | c} 1-3 & 2 & 2 & 0 \\ 2 & -2-3 & 1 & 0 \\ 2 & 1 & -2-3 & 0 \end{array} \right) = \left( \begin{array}{c c c | c} -2 & 2 & 2 & 0 \\ 2 & -5 & 1 & 0 \\ 2 & 1 & -5 & 0 \end{array} \right) \\ & \sim \left( \begin{array}{c c c | c} -1 & 1 & 1 & 0 \\ 0 & -3 & 3 & 0 \\ 0 & 3 & -3 & 0 \end{array} \right) \sim \left( \begin{array}{c c c | c} 1 & -1 & -1 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right) \sim \left( \begin{array}{c c c | c} 1 & 0 & -2 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right) \\ & \implies \eig_A(3) = \left\langle \begin{pmatrix} 2 \\ 1 \\ 1 \end{pmatrix} \right\rangle \end{aligned}\] $\lambda = -3$ \[\begin{aligned} & \left( \begin{array}{c c c | c} 1+3 & 2 & 2 & 0 \\ 2 & -2+3 & 1 & 0 \\ 2 & 1 & -2+3 & 0 \end{array} \right) = \left( \begin{array}{c c c | c} 4 & 2 & 2 & 0 \\ 2 & 1 & 1 & 0 \\ 2 & 1 & 1 & 0 \end{array} \right) \\ & \sim \left( \begin{array}{c c c | c} 2 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right) \\ & \implies \eig_A(-3) = \left\langle \begin{pmatrix} -1 \\ 0 \\ 2 \end{pmatrix}, \begin{pmatrix} -1 \\ 2 \\ 0 \end{pmatrix} \right\rangle \end{aligned}\] \item \[\begin{aligned} & S = \begin{pmatrix} 2 & -1 & -1 \\ 1 & 0 & 2 \\ 1 & 2 & 0 \end{pmatrix} \\ & \implies S^{-1} A S = \begin{pmatrix} 3 & 0 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & -3 \end{pmatrix} \end{aligned}\] \end{enumerate} \begin{lemma} \label{theo:2.2.16} Sei $A\in\K^{\nxn}$ und $\underbrace{\spur(A)}_{\mathclap{\color{red}\text{\dq Spur von $A$ \dq}}} := \sum\limits_{i=1}^n a_{ii}$ \[\chi_A(\lambda) = (-1)^n\lambda^n + (-1)^{n-1} \spur(A) \lambda^{n-1} + \cdots + \det(A)\] \begin{proof} $\chi_A(\lambda) = \sum\limits_{\pi \in S_n} \sgn(\pi) \prod\limits_{i=1}^n \tilde{a}_{i\pi(i)}$ mit $\tilde{a}_{ij} = \begin{cases} a_{ij} & i\neq j \\ a_{ij} - \lambda & i=j\end{cases}$. \\ Wenn $\pi\neq \id$ gilt $\deg\left(\prod\limits_{i=1}^n \tilde{a}_{i\pi(i)}\right)\le n-2$, da mindestens zwei Elemente vertauscht werden. Die Koeffizienten von Grad $n, n-1$ kann man also aus $\prod\limits_{i=1}^n \tilde{a}_{ii} = \prod\limits_{i=1}^n (\tilde{a}_{ii} - \lambda)$ ablesen. Daraus folgt die Behauptung für die höchsten beiden Koeffizienten. Weiters gilt $\chi_A(0)=\det(A)$, was die Aussage für den konstanten Koeffizienten zeigt. \end{proof} \end{lemma} $\sigma_j := (-1)^j \sum\limits_{\substack{S\subset [n] \\ \lvert S \rvert = n-j}} \prod\limits_{s \in S} \lambda_s$ \begin{korollar} \leavevmode \begin{enumerate}[label=\alph*)] \item $A\sim B \implies \spur(A)=\spur(B)$ \item A diagonalisierbar $\implies \spur(A)=\lambda_1 + \cdots + \lambda_n$ mit $\lambda_1, \dots, \lambda_n$ Eigenwerte von $A$, nach Vielfachheit gezählt. \item A diagonalisierbar $\implies \det(A)=\lambda_1 \cdot \dots \cdot \lambda_n$ mit $\lambda_1, \dots, \lambda_n$ Eigenwerte von $A$, nach Vielfachheit gezählt. \end{enumerate} \begin{proof} Folgt daraus, dass das charakteristische Polynom (und damit seine Koeffizienten) unter Ähnlichkeit invariant sind (Lemma \ref{theo:2.2.7}) und Lemma \ref{theo:2.2.16} \end{proof} \end{korollar} \begin{satz}[Cayley-Hamilton] \dq$\chi_A(A) = 0$\dq, das heißt sei $A\in \K^{\nxn}$ mit charakteristischem Polynom $\chi_A(\lambda)=c_n \lambda^n + c_{n-1} \lambda^{n-1} + \cdots + c_0$. Dann gilt \[ \chi_A(A):=c_n A^n + c_{n-1} A ^{n-1} + \cdots c_0 I = 0 = \begin{pmatrix}0 &\dots &0 \\ \vdots& \ddots &\vdots \\ 0 & \dots & 0\end{pmatrix} \in \K^{\nxn} \] \begin{proof} Sei $B := A^T - \lambda I = \begin{pmatrix} a_{11} - \lambda & a_{21} & \dots & a_{n1} \\ a_{12} & a_{22} - \lambda & \dots & a_{n2} \\ \vdots & \ddots & \ddots & \vdots \\ a_{1n} & a_{2n} & \dots & a_{nn} - \lambda \end{pmatrix} = (a_{ji} - \delta_{ij} \lambda)_{ij}$ und $C:= \adj(B)$, sodass \begin{equation} CB = \det(B) I_n = \chi_A = I_n [\chi_A = \chi_{A^T} \label{eq:2.2.18.1} \end{equation} \ref{eq:2.2.18.1} heißt komponentenweise, dass \begin{flalign} & \sum_{i=1}^{n} \underbrace{c_{ki}}_{\mathrlap{\text{Polynome, in die $A$ eingesetzt werden kann}}} \underbrace{b_{ij}} = \delta_{ij} \cdot \underbrace{\chi_A} \forall k, j \in [n] \nonumber \\ = & \sum_{i=1}^{n}c_{ki}(A) b_{ij}(A) = \delta_{jk}\chi_A (A) \label{eq:2.2.18.2} \end{flalign} Wegen $b_{ij}(A) = a_{ji} I_N - \delta_{ij}A$ gilt weiters \begin{equation} \forall i \in [n]: \sum_{j=1}^{n} b_{ij}(A) e_j = (\sum_{j=1}^{n} a_{ji} e_j) - A e_i = 0 \label{eq:2.2.18.3} \end{equation} Es folgt $\forall k \in [n]$ \begin{flalign*} \chi_A (A) e_k & = \sum_{j=1}^{n} \delta_{jk} \chi(A) e_j & \\ & \underbrace{=}_{\mathclap{\text{\ref{eq:2.2.18.2}}}} \sum_{j=1}^{n} \sum_{i=1}^{n} c_{ki}(A) b_{ij}(A) e_j & \\ & = \sum_{i=1}^{n} c_{ki}(A) (\sum_{j=1}^{n} b_{ij(A) e_j}) & \\ & \underbrace{=}_{\mathclap{\text{\ref{eq:2.2.18.3}}}} 0 & \\ \implies \chi_A(A) = 0 \end{flalign*} \end{proof} \end{satz} \subsubsection{Berechnung der Koeffizienten von $\chi_A$} Sei $f(\lambda) \underbrace{=}_{\text{(*)}} \prod\limits_{j=1}^{n}(\lambda_j - \lambda) = \underbrace{c_n\lambda^n}_{=(-1)^n} + c_{n-1}\lambda ^{n-1} + \cdots + c_0$ Wie können wir $c_j$ effizient bestimmen? \begin{itemize} \item [Bemerkung 1:] $\displaystyle { c_j = (-1)^{j} \sum_{\substack{S\subseteq [n] \\ \lvert S \rvert = n-j}} \prod_{s \in S} \lambda_s =: \sigma_{n-j}^n (\lambda_1, \dots, \lambda_n)}$ \\ Dies folgt aus (*) durch Ausmultiplizieren \\ Sei nun weiters $p_j^n(\lambda_1, \dots, \lambda_n) := \sum\limits_{i=1}^{n}\lambda_i^j$ \item [Bemerkung 2:] $\sigma_j^n, p_j^n$ sind symmetrisch, das heißt \[\begin{aligned} & \sigma_j^n(\lambda_{\pi(1)}, \dots, \lambda_{\pi(n)}) = \sigma_{j}^n (\lambda_1, \dots, \lambda_n) \\ & p_j^n(\lambda_{\pi(1)}, \dots, \lambda_{\pi(n)}) = p_{j}^n (\lambda_1, \dots, \lambda_n) \end{aligned} \text{ für } \pi \in S_n\] \end{itemize} \begin{lemma}[Newtonidentität] \label{theo:2.2.19} Es gilt für $k\le n$ \[k\sigma_k^n+\sum_{j=0}^{k-1}\sigma_j^n p_{k-j}^n=0\] \begin{proof} Induktion. \begin{itemize} \item [$k=n$:] Wegen \begin{equation*} 0= \sum_{i=1}^{n} = \sum_{i=1}^{n} \sum_{j=0}^n c_j \lambda_i^j = \sum_{j=0}^n c_j p_j^n = \sum_{j=0}^n \sigma_{n-j}^n p_j^n = \sum_{j=0}^n \sigma_j^n p_{n-j}^n \end{equation*} folgt $\sigma_n^n p_0^n + \sum\limits_{j=0}^n \sigma_j^n p_{n-j}^n = 0$ was mit $p_0^n = n$ die gewünschte Aussage liefert. \item [$k1$:] \begin{align*} & \alpha(c_i) = \alpha(\tilde{b}_i) = \alpha(\sum_{j=2}^n \mu_{ij} b_j) = \sum_{j=2}^n \mu_{ij} \alpha(b_j) \\ & = \sum_{j=2}^n\mu_{ij}(a_{1j} b_1 + \beta(b_j)) = (\underbrace{\sum_{j=2}^n \mu_{ij} a_{1j}}_ {\displaystyle\sigma_i}) + \sum_{j=2}^n \mu_{ij}\beta(b_j) \\ & = \sigma_i b_1+ \beta(\sum_{j=2}^n \mu_{ij} b_j) = \sigma_i b_1 + \beta(\tilde{b}_i) \\ & \underbrace{\in}_{\text{\ref{eq:2.2.22.2}}} \langle b_1,\tilde{b}_2,\dots,\tilde{b}_i\rangle = \langle c_1, \dots, c_i \rangle \end{align*} \end{itemize} \end{itemize} \end{itemize} \end{proof} \end{satz} \section{Jordan Normalform} \begin{defin} Eine $m\times m$ Matrix \[J_m(\lambda) := \begin{pmatrix} \lambda & 1 & 0 & \dots & 0 \\ 0 & \ddots & \ddots & \ddots & \vdots \\ \vdots & \ddots & \ddots & \ddots & 0 \\ \vdots & \ddots & \ddots & \ddots & 1 \\ 0 & \dots & \dots & 0 & \lambda \end{pmatrix}\] heißt \underline{Jordanblock} der Dimension $m$ zum Eigenwert $\lambda$.\\ Eine Matrix $A \in \K^{\nxn}$, die als Blockdiagonalmatrix aus Jordanblöcken besteht, heißt \underline{Jordanmatrix}. \\ $A \in \K^{\nxn}$ besitzt eine \underline{Jordan-Normalform} wenn $P\in\K^{\nxn}$ invertierbar existiert, sodass $P^{-1}AP$ Jordanmatrix ist.\\ $\alpha \in \homkv$ besitzt eine \underline{Jordan-Normalform} wenn eine Basis $B$ von $V$ existiert, sodass $ {}_{B} M(\alpha)_{B} $ Jordanmatrix ist.\\ B heißt \underline{Jordanbasis} zu $A/\alpha$. \end{defin} \subsubsection{Beispiel} \begin{itemize} \item Jede Diagonalmatrix ist Jordanmatrix \item $\begin{pmatrix}1\end{pmatrix}, \begin{pmatrix}1 & 1 \\ 0 & 1\end{pmatrix}, \begin{pmatrix}0 & 1 \\ 0 & 0\end{pmatrix}, \begin{pmatrix}1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2\end{pmatrix}, \xcancel{\begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}}$ \item \( \begin{pmatrix} \tl3\br \\ & \tl2 & 1 \\ & & 2\br\end{pmatrix} , \begin{pmatrix} \tl0 & 1 \\ 0 & 0\br \\ & & \tl-1\br \end{pmatrix}\) \end{itemize} Wir wollen zeigen, dass $\alpha/A$ genau dann eine Jordan-Normalform besitzt, wenn $\alpha/A$ triangulierbar ist. \subsubsection{Bemerkung} \begin{itemize} \item $\chi_{J_m(\lambda)}(\mu) = (\lambda - \mu)^m \implies \spec(J_m(\lambda)) = \{\lambda\}$ \\ $J_m(\lambda) - \lambda I = \begin{pmatrix} 0 & 1 & 0 & \dots & 0 \\ 0 & \ddots & \ddots & \ddots & \vdots \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ \vdots & & \ddots & \ddots & 1 \\ 0 & \dots & \dots & 0 & 0 \end{pmatrix}$\\ $\implies \dim(\eig_{J_m(\lambda)}(\lambda)) = \dim(\ker(J_m(\lambda) - \lambda I)) = 1$ \\ $\implies m_g(\lambda) = 1$ und $m_a(\lambda) = m$. \item $J_m(0)^m = 0$, das heißt $J_m(0)$ ist \underline{nilpotent}. \begin{align*} & J_m(0)(e_i): \begin{cases} e_{i-1} & i \in \{2, \dots, m\} \\ 0 & \text{sonst}\end{cases} \\ & J_m(0)^l(e_i): \begin{cases}e_{i-l} & i \in \{l+1, \dots, m\} \\ 0 & \text{sonst}\end{cases} \end{align*} \end{itemize} \begin{defin} $\alpha \in \homkv$ oder $A\in \K^{\nxn}$ heißt \underline{nilpotent} (mit Index $m$) falls $\alpha^m = 0 / A^m = 0$ und $\forall l \in [m-1]: \alpha^l \neq 0 / A^l \neq 0$. \end{defin} \begin{lemma} \label{theo:2.3.3} Sei $\alpha \in \homkv, \dim(V)=n$ nilpotent mit Index $m$. Dann existiert eine Basis $B$ mit \begin{equation*} {}_B M(\alpha)_B = \begin{pmatrix} 0 & \delta_1 & & \\ & \ddots & \ddots & \\ & & \ddots & \delta_{n-1} \\ & & & 0 \end{pmatrix} \text{ und } \delta_i \in \{0, 1\} \forall i \in [n-1] \end{equation*} Das heißt ${}_B M(\alpha)_B$ ist blockdiagonal mit Jordanblöcken mit Eigenwerten $0$ \begin{proof} Sei $V_i := \ker(\alpha^i)$. \\ Dies ergibt eine aufsteigende Kette von Unterräumen \begin{equation*} \underbrace{\{0\}}_{=V_0} \subseteq V_1 \subseteq \cdots \subseteq \underbrace{V_m}_{=V} \end{equation*} Wir bauen uns iterativ eine Basis für Komplemente $W_i$ mit $V_{i-1} \oplus W_i = V_i$. Sei also $B^{m-1}$ Basis von $V_{m-1}$. \\ $C^m = (c_1^m, \dots, c_{r_{m}})$ Basis von $W_m$ [das heißt $C^m$ ergänzt die Basis $B^{m-1}$ zu Basis von $V^m$]. \\ \underline{Behauptung} \begin{enumerate} [label=\arabic*)] \item $\alpha(C^m) \subseteq V_{m-1}$ \item $\alpha(C^m)$ linear unabhängig \item $\langle \alpha(C^m) \rangle \cap V_{m-2} = \{0\}$ \end{enumerate} \begin{proof}[Zwischenbeweis] \begin{itemize} \item[1)] folgt aus $\alpha(V_{i+1}) \subseteq \alpha(V_i)$ \item[3)] Sei $\sum\limits_{i}\mu_i \alpha(c_i^m) \in V_{m-2}$ \begin{align*} & \implies \alpha^{m-2}(\sum_{i}\mu_i \alpha(c_i^m)) = 0 \\ & \implies \alpha^{m-1} (\sum_{i} \mu_i \alpha(c_i^m)) = 0 \\ & \implies \sum \mu_i c_i^m \in V_{m-1} \\ & \underbrace{\implies}_{\mathclap{\substack{(c_i^m) \text{ liegen} \\ \text{im Komplement} \\ \text{von } V_{m-1}}}} \mu_i = 0, \forall i \implies \sum_{i} \mu_i \alpha(c_i^m) = 0 \end{align*} \item[2)] folgt aus 3) [da $0\in V_{m-2}$] \end{itemize} \end{proof} Es folgt, dass \begin{align*} & & \langle D^{m-1} \rangle\;\; & \langle D^m \rangle \\ & & \underbrace{V_{m-2} \oplus \langle \alpha(C^m) \rangle \oplus \langle C^{m-1} \rangle}_{V_{m-1}} \oplus & \langle C^m \rangle = V \end{align*} Setze $D^m := C^m$ und definiere induktiv für $D^i \subseteq V_i$ die Menge $D^{i-1} := \alpha(D^i) \cup C^{i-1} \subseteq V_{i-1}$ sodass mit einer Basis $B^{i-2}$ von $V_{i-2}$ die Menge $B^{i-2} \cup D^{i-1}$ Basis von $V_{i-1}$ ist, also \[ V_{i-2} \oplus \underbrace{\langle \alpha(D^i) \rangle \oplus \langle C^{i-1} \rangle}_{\langle D^i \rangle} = V_{i-1} \text{$\leftarrow$ das geht nach obiger Behauptung} \] Nach Konstruktion ist $(D^1, \dots, D^m)$ Basis von $V$. Sie besteht aus folgenden Elementen: \begin{align*} \left. \begin{array}{lll} J_m(0) \to & \alpha^{m-1}(d_1^m), \dots, \alpha(d_1^m), & d_1^m \\ & & \vdots \\ J_m(0) \to & \alpha^{m-1}(d_{r_m}^m), \dots, \alpha(d_{r_m}^m), & d_{r_m}^m \end{array} \right\} \in V_m \\ \left. \begin{array}{lll} J_{m-1}(0) \to & \alpha^{m-1}(d_1^{m-1}), \dots, \alpha(d_1^{m-1}), & d_1^{m-1} \\ & & \vdots \\ J_{m-1}(0) \to & \alpha^{m-1}(d_{r_{m-1}}^{m-1}), \dots, \alpha(d_{r_{m-1}}^{m-1}), & d_{r_{m-1}}^{m-1} \end{array} \right\} \in V_{m-1} \\ \left. \begin{array}{lr} J_1(0) \to & d_1^1 \\ & \vdots \\ J_1(0) \to & d_{r_1}^1 \end{array} \right\} V_1 = \ker(\alpha) \end{align*} Wenn wir die Basiselemente von links nach rechts und von oben nach unten ordnen erhalten wir die gewünschte Gestalt. \end{proof} \end{lemma} \subsubsection{Bemerkung} Angenommen \(\alpha - \lambda \id: V \to V\) nilpotent. Dann besitzt \(\alpha\) nach Lemma \ref{theo:2.3.3} Jordan-Normalform. \begin{defin} \label{theo:2.3.4} Sei \(V \K\)-Vektorraum, \(\dim(V) < \infty, \alpha \in \homkv\) und \(\lambda \in \spec(\alpha)\). Für \(l \in \mathbb{N}\) definiere \(V_{l, \lambda}:= \ker((\alpha - \lambda \id)^l)\) \end{defin} \subsubsection{Bemerkung} \begin{itemize} \item $\alpha - \lambda \id|_{V_{l, \lambda}} \in \homk(V_{l, \lambda}, V_{l, \lambda})$: \begin{align*} \text{zu Zeigen: } v\in V_{l, \lambda} & \implies \alpha(v) - \lambda v \in V_{l, \lambda}\text{, das heißt} \\ (\alpha - \lambda \id)^l v = 0 & \implies (\alpha - \lambda \id)^{l-1} (\alpha - \lambda \id) v = 0 \\ & \implies (\alpha - \lambda \id)(v) \in V_{l, \lambda} & \square \end{align*} \item Nach Lemma \ref{theo:2.3.3} gibt es also Basis von $V_{l, \lambda}$ bezüglich derer $\alpha - \lambda \id |_{V_{l, \lambda}}: V_{l, \lambda} \to V_{l, \lambda}$ Jordan-Normalform hat \end{itemize} \begin{lemma} \label{theo:2.3.5} Sei $V \K$-Vektorraum, $\dim(V) < \infty, \alpha \in \homkv$. Für $l\in\mathbb{N}$ sei $V_l := \ker(\alpha^l)$. Dann gilt $\alpha(V_l) \subseteq V_{l-1} \subseteq V_l$ für alle $l\in \mathbb{N}$ und es existiert genau ein $k\in \mathbb{N}_0$ mit \[ \{0\} = V_0 \subseteq V_1 \subseteq \cdots \subseteq V_k = V_{k+1} \text{ und } V_{l+1} = V_l, \forall l \ge k \] \begin{proof} Da $\dim(V) < \infty$ muss es ein kleinstes $k$ mit $V_{k+1} = V_{k}$ geben. Angenommen $\exists l\ge k$ mit $V_{l+1} \neq V_l$. Sei $0\neq v\in V_{l+1} \setminus V_l$ $\implies 0 = \alpha^{l+1}(v) = \alpha^{k+1}(\alpha^{l-k}(v))$ und $0\neq \alpha^l(v) = \alpha^k (\alpha^{l-k}(v)) \implies 0\neq \alpha^{l-k}(v) \in V_{k+1}\setminus V_k$ \Lightning \end{proof} \end{lemma} \begin{defin} Sei $V_{l, \lambda}$ wie in Definition \ref{theo:2.3.4} und $k$ wie in Lemma \ref{theo:2.3.5} Dann heißt \[ \widetilde{\eig_\alpha(\lambda)} := V_{k, \lambda} = V_{k+1, \lambda} \] \underline{verallgemeinerter Eigenraum} oder \underline{Hauptraum} von $\alpha$ zum Eigenwert $\lambda$. $v \in V_{l, \lambda} \setminus V_{l-1, \lambda}$ für $1 \le l \le k$ heißt \underline{verallgemeinerter Eigenvektor} der Ordnung $l$. \end{defin} \subsubsection{Idee} \begin{itemize} \item $\alpha|_{\widetilde{\eig_\alpha(\lambda)}}: \widetilde{\eig_\alpha(\lambda)} \to \widetilde{\eig_\alpha(\lambda)}$ hat Jordan-Normalform. Zerlege \begin{equation} \label{eq:2.3.6.1} V:= \widetilde{\eig_\alpha(\lambda_1)} \oplus \cdots \oplus \widetilde{\eig_\alpha(\lambda_r)} \end{equation} dann besitzt ganz $\alpha: V\to V$ Jordan-Normalform \item Sei $V= V_1 \oplus \cdots \oplus V_r$ und $\alpha \in \homkv$. Falls $\alpha(V_i) \subseteq V_i$ für alle $i \in [r]$, dann schreiben wir $\alpha = \alpha_1 \oplus \cdots \oplus \alpha_r$ mit $\alpha_i = \alpha|_{V_i} \forall i \in [r]$. Für $v= v_1 + \cdots + v_r, v_i \in V_i, \forall i \in [r]$ gilt also $\alpha(v) = \alpha_1(v_1) + \cdots + \alpha_r(v_r)$. Sei $B_i = \{b_1^i, \dots, b_{d_i}^i\}$ Basis von $V_i$ und $B = (B_1, \dots, B_r)$. Dann hat ${}_B M(\alpha)_B$ Blockdiagonalgestalt mit Blöcken ${}_{B_i} M(\alpha_i)_{B_i}$, das heißt \[ {}_B M(\alpha)_B = \begin{pmatrix} \overbrace{{}_{B_1} M(\alpha_1)_{B_1}}^{\in \K^{d_1 \times d_1}} & & 0 \\ & \ddots & \\ 0 & & \underbrace{{}_{B_r} M(\alpha_r)_{B_r}}_{\in\K^{d_r \times d_r}} \end{pmatrix} \] Insbesondere gilt $\chi_\alpha = \chi_{\alpha_1} \cdot \dots \cdots \chi_{\alpha_r}$ \item Da wir schon wissen, dass $\alpha|_{\widetilde{\eig_\alpha(\lambda_i)}}$ Jordan-Normalform hat folgt \\Jordan-Normalform für $\alpha$ wenn \ref{eq:2.3.6.1} gezeigt werden kann. \end{itemize} \begin{satz} \label{theo:2.3.7} Sei $V \K$-Vektorraum mit $\dim(V) < \infty$ und $\alpha \in \homkv$ sodass $\chi_\alpha(\lambda) = (\lambda_1 - \lambda) \cdots (\lambda_r - \lambda)$ in Linearfaktoren zerfällt. Dann gilt $V = \widetilde{\eig_\alpha(\lambda_1)} \oplus \cdots \oplus \widetilde{\eig_\alpha(\lambda_r)}$ und insbesondere $\alpha = \alpha_1 \oplus \cdots \oplus \alpha_r$ mit $\alpha_i := \alpha|_{\widetilde{\eig_\alpha(\lambda_i)}} \in \homk(\widetilde{\eig_\alpha(\lambda_i)}, \widetilde{\eig_\alpha(\lambda_i)})$ \begin{proof} Induktion nach $\dim(V)$. \begin{itemize} \item[$n=1$] \checkmark \item[$n-1 \mapsto n$] Da $\chi_A$ in Linearfaktoren zerfällt besitzt es eine Nullstelle $\lambda \in \spec(\alpha)$. \begin{enumerate}[label=Fall \arabic*:] \item $\widetilde{\eig_\alpha(\lambda)} = V$ \\ \underline{Behauptung:} $\spec(\alpha) = \{\lambda\}$ \begin{proof}[Zwischenbeweis] Angenommen $\lambda' \neq \lambda$ und $\lambda' \in \spec(\alpha)$ und $v\in \eig_\alpha(\lambda')$. \\ $\implies (\alpha - \lambda \id) (v) = \alpha(v) - \lambda'v + (\lambda' - \lambda) v = (\lambda' - \lambda)(v)$ \\ $\implies (\alpha - \lambda \id)^l (v) \neq 0,\forall l \in \mathbb{N}$\Lightning \\ Daraus folgt das gewünschte Resultat \end{proof} \item $\widetilde{\eig_\alpha(\lambda)} \neq V$. Sei $k$ minimal mit $\ker(\alpha - \lambda - \id)^k = \widetilde{\eig_\alpha(\lambda)}$ [Lemma \ref{theo:2.3.5}] Setze $V_1 := \widetilde{\eig_\alpha(\lambda)}, V_2 := \im(\alpha - \lambda \id)^k$. \\ \underline{Behauptung:} \begin{enumerate}[label=(\roman*)] \item $\alpha(V_i) \subseteq V_i, i \in \{1, 2\}$ \item $V = V_1 \oplus V_2$ \end{enumerate} \begin{proof}[Zwischenbeweis] \begin{enumerate}[label=(\roman*)] \item Wir zeigen $(\alpha - \lambda \id)(V_i) \subseteq V_i$. \begin{itemize} \item[$i=1$:] Sei $v\in V_1 = \ker(\alpha - \lambda \id)^k$. Dann gilt klarerweise $(\alpha - \lambda \id)(v) \in \ker(\alpha - \lambda \id)^k \checkmark$ \item[$i=2$:] Sei $v \in \im(\alpha - \lambda \id)^k$, also $v = (\alpha - \lambda \id)^k (w)$ $\implies (\alpha - \lambda \id)(v) = (\alpha - \lambda \id)^k (\alpha - \lambda \id)(w) \in \im(\alpha - \lambda \id)^k \checkmark$ \end{itemize} \item Es gilt $\dim(V) = \dim(V_1) + \dim(V_2)$ nach der Dimensionsformel. Es genügt also zu zeigen, dass $V_1 \cap V_2 = \{0\}$. \\ Sei $v\in V_1 \cap V_2$ \begin{align*} & \underbrace{\implies}_{v\in V_2} \exists w\in V: v = (\alpha - \lambda \id)^k(w) \\ & \underbrace{\implies}_{v\in V_1} (\alpha - \lambda \id)^{2k}(w) = 0 \\ & \implies w \in V_{2k, \lambda} \setminus V_{k, \lambda} \underbrace{\implies}_{\mathclap{\text{Lemma \ref{theo:2.3.5}}}} w = \{0\} \checkmark \end{align*} \end{enumerate} \end{proof} \end{enumerate} Es folgt $V = \underbrace{\widetilde{\eig(\lambda)}}_{V_1} \oplus V_2, \dim(V_2) < n$ und \\ $\alpha = \alpha_1 \oplus \alpha_2, \alpha_i := \alpha|_{V_i}, i\in\{1, 2\}$. Es folgt $\chi_\alpha = \chi_{\alpha_1} \cdot \chi_{\alpha_2}$, also zerfällt $\chi_{\alpha_2}$ in Linearfaktoren. Daher können wir die Induktionsvorraussetzung anwenden, was das gewünschte Resultat lierfert. \end{itemize} \end{proof} \end{satz} \begin{satz} Sei $V \K$-Vektorraum, $\dim(V) < \infty$ und $\alpha \in \homkv$ sodass $\chi_A$ in Linearfaktoren zerfällt. Dann besitzt $\alpha$ Jordan-Normalform. \begin{proof} Zerlege nach Satz \ref{theo:2.3.7} $V = \widetilde{\eig_\alpha(\lambda_1)} \oplus \cdots \oplus \widetilde{\eig_\alpha(\lambda_r)}$ und \\ $\alpha = \alpha \oplus \cdots \oplus \alpha_r$. Da $\widetilde{\eig_\alpha(\lambda_i)} = \ker(\alpha - \lambda_i \id)^{k_i}$ ist $\alpha_i - \lambda_i \id := \alpha|_{\widetilde{\eig_\alpha(\lambda_i)}} - \lambda \id|_{\widetilde{\eig_\alpha(\lambda_i)}} $ nilpotent. Nach Lemma \ref{theo:2.3.3} gibt es eine Basis $B_i$ von $\widetilde{\eig_\alpha(\lambda_i)}$ sodass ${}_{B_i} M(\alpha_i)_{B_i}$ Jordan-Normalform hat. Es folgt mit $B= (B_1, \dots, B_r)$ dass ${}_B M(\alpha)_B = \begin{pmatrix} {}_{B_1} M(\alpha_1)_{B_1} & & \\ & \ddots & \\ & & {}_{B_r}M(\alpha_r)_{B_r} \end{pmatrix}$ Jordanmatrix ist. \end{proof} \end{satz} \subsubsection{Berechnung der Jordan-Normalform} \begin{enumerate} \item Berechne $\spec(\alpha) = \{ \lambda_1, \dots, \lambda_r \}$ \item \begin{enumerate}[label=\alph*)] \item Haupträume berechnen: Finde $k$ minimal mit \[ \ker(\alpha - \lambda \id)^{k+1} = \ker(\alpha - \lambda \id)^k =: V_\lambda \] \item Für $1 \le l \le k$ bestimme $B_l = \{ b_1^l, \dots, b_{r_l}^l\}$, sodass $(B_1, \dots, B_l)$ Basis von $\ker(\alpha - \lambda \id)^l$. \end{enumerate} \item \begin{enumerate}[label=\alph*)] \item Setze zunächst $v_i^k = b_i^k, i = 1, \dots, r_k$. $D_k := (v_1^k, \dots, v_{r_k}^k)$ \\ Setze $v_i^{k-1} := (\alpha - \lambda \id)(v_i^k) \in \langle B_{k-1} \rangle, i = 1, \dots, r_k$ \\ Ergänze gegebenenfalls $(v_1^{k-1}, \dots, v_{r_k}^{k-1}, v_{r_{k+1}}^{k-1}, \dots, v_{r_{k-1}}^{k-1})=:D_{k-1}$, sodass $\langle D_{k-1} \rangle = \langle B_{k-1} \rangle$ \item Führe 3a) iterativ aus. \\ Setze $v_i^{l-1} := (\alpha - \lambda \id)(v_i^l), i = 1, \dots, r_l$ \\ Ergänze gegebenenfalls $v_1^{l-1}, \dots, v_{r_l}^{l-1}, v_{r_{l+1}}^{l-1}, \dots, v_{r_{l-1}}^{l-1} =:D_{l-1}$, sodass $\langle D_{l-1} \rangle = \langle B_{l-1} \rangle$ \end{enumerate} \item Sei $B_\lambda = (D_1, \dots, D_k) \implies {}_{B_\lambda} M(\alpha|_{v_\lambda})_{B_\lambda}$ hat Jordan-Normalform mit Eigenwert $\lambda$. \item Setze $B = (B_{\lambda_1}, \dots, B_{\lambda_r}) \implies {}_B M(\alpha)_B$ hat Jordan-Normalform. \end{enumerate} \subsubsection{Beispiel} \begin{align*} & A= \begin{pmatrix} 1 & 0 & 2 & 3 & 4 \\ 0 & 1 & 0 & -2 & -3 \\ 0 & 0 & 1 & 0 & 2 \\ 0 & 0 & 0 & 1 & -1 \\ 0 & 0 & 0 & 0 & 1 \end{pmatrix} , \chi_A(\lambda) = (\lambda - 1)^5 \\ & (A - 1\cdot I) = \begin{pmatrix} 0 & 0 & 2 & 3 & 4 \\ 0 & 0 & 0 & -2 & -3 \\ 0 & 0 & 0 & 0 & 2 \\ 0 & 0 & 0 & 0 & -1 \\ 0 & 0 & 0 & 0 & 0 \end{pmatrix} \implies \ker(A - I) = \langle ( \underbrace{e_1, e_2}_{B_1} ) \rangle \\ & (A-I)^2 = \begin{pmatrix} 0 & 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 & 2 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \end{pmatrix} \implies \ker((A-I)^2) = \langle (\underbrace{e_1, e_2}_{B_1}, \underbrace{e_3, e_4}_{B_2}) \rangle \\ & (A-I)^3 = 0 \implies \ker((A-I)^3) = \langle(\underbrace{e_1, e_2}_{B_1}, \underbrace{e_3, e_4}_{B_2}, \underbrace{e_5}_{B_3}) \rangle \\ & B_1 = (e_1, e_2), B_2 = (e_3, e_4), B_3 = (e_5) \end{align*} \begin{align*} \begin{rcases} v_1^3 = e_5 \end{rcases} D_3 \\ \begin{rcases} v_1^2 = (A-1I)(v_1^3) = \begin{pmatrix}-4 \\ -3 \\ 2 \\ -1 \\ 0\end{pmatrix} \\ v_2^2 = e_4 \end{rcases} D_2 \\ \begin{rcases} v_1^1 = (A - I)(v_1^2) = \begin{pmatrix}1 \\ 2 \\ 0 \\ 0 \\ 0 \end{pmatrix} \\ v_2^1 = (A - I)(v_2^2) = \begin{pmatrix}3 \\ -2 \\ 0 \\ 0 \\ 0 \end{pmatrix} \end{rcases} D_1 \end{align*} \begin{align*} (\overset{\mathrlap{\rotatebox{30}{\scriptsize$\in\ker(A-I)$}}}{v_1^1} \underset{\mathclap{\substack{\rotatebox{180}{$\curvearrowright$} \\ A-I}}}{,} v_1^2 \underset{\mathclap{\substack{\rotatebox{180}{$\curvearrowright$} \\ A-I}}}{,} v_1^3, \overset{\mathrlap{\rotatebox{30}{\scriptsize$\in\ker(A-I)$}}}{v_1^1} \underset{\mathclap{\substack{\rotatebox{180}{$\curvearrowright$} \\ A-I}}}{,} v_2^2) = B, {}_B M(A)_B = \begin{pmatrix} 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 & 0 \\ 0 & 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 & 1 \end{pmatrix} \\ P = \begin{pmatrix} 1 & 4 & 0 & 3 & 0 \\ 2 & -3 & 0 & -2 & 0 \\ 0 & 2 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 & 0 \end{pmatrix} \implies P^{-1} A P = \begin{pmatrix} \tl1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 1 & 0 & 0 \\ 0 & 0 & 1\br & 0 & 0 \\ 0 & 0 & 0 & \tl1 & 1 \\ 0 & 0 & 0 & 0 & 1\br \end{pmatrix} \end{align*} \chapter{Euklidische und Unitäre Vektorräume} \subsubsection{Motivation} Wir wollen Geometrie betreiben und Längen beziehungsweise Winkel messen können. \subsubsection{Länge} \begin{tikzpicture}[scale=4] \draw [-latex, very thick] (0, 0) -- (1.3, 1); \draw [dashed] (0, 0) -- (1.3, 0) -- (1.3, 1); \node [below] at (0.65, 0) {$x_2 - x_1$}; \node [right] at (1.3, 0.5) {$y_2 - y_1$}; \node [below left] at (0, 0) {$(x_1, y_1)$}; \node [above right] at (1.3, 1) {$(x_2, y_2)$}; \draw (1.1, 0) -- (1.1, 0.2) -- (1.3, 0.2); \draw [fill] (0, 0) circle [radius=0.02]; \end{tikzpicture} \( \R^2: P_1 = (x_1, y_1), P_2 = (x_2, y_2) \) \\ \( d(P_1, P_2) = \sqrt{(x_2 - x_1)^2 + (y_2 - y_1)^2} = \lvert \vect{P_1P_2} \rvert \) \subsubsection{Winkel} \begin{tikzpicture}[scale=0.7] \coordinate (a) at (0, 0); \coordinate (b) at (5, 6); \coordinate (c) at (8, 4); \draw [fill] (a) circle [radius=0.07]; \draw [very thick, ->] (a) -- (b); \draw [very thick, ->] (a) -- (c); \node [below left] at (a) {$p$}; \node [right] at (b) {$v_2$}; \node [right] at (c) {$v_2$}; \draw pic [draw, thick, angle radius=3cm, pic text=$\alpha$] {angle=c--a--b}; \end{tikzpicture} \\ $v_1 = (u_1, w_1), v_2 = (u_2, w_2), v= (u, w)$ \\ $\cos(\alpha) = \dfrac{u_1 u_2 + w_1 w_2}{\lvert w_1 \rvert \lvert w_2 \rvert}$ $\lvert v \rvert = \sqrt{u^2 + w^2}$ \\ $v_1 \cdot v_2 = u_1 u_2 + w_1 w_2$ skalares Produkt \\ $\implies d(P_1, P_2) = \sqrt{\vect{P_1 P_2} \cdot \vect{P_1 P_2}}, \cos(\sphericalangle{v_1 v_2}) = \dfrac{v_1 v_2}{\lvert v_1 \rvert \lvert v_2 \rvert}$ \section[Skalarprodukte und Hermitesche Formen]{Skalarprodukte und Hermitesche \\ Formen} Zunächst sei \( \K = \R \) \begin{defin} Sei $v$ ein $\R$-Vektorraum und $\beta: V \times V \to \R$. $\beta$ heißt \begin{itemize} \item \underline{bilinear} (Bilinearform) wenn $\forall u, v, w\in V, \lambda \in \R$: \begin{align*} \beta(u+v, w) = \beta(u, w) + \beta(v, w), \\ \beta(u, v+w)=\beta(u, v) + \beta(u, w), \\ \beta(\lambda u, v) = \lambda \beta(u, v) = \beta(u, \lambda v) \end{align*} \item \underline{symmetrisch} wenn $\forall u, v \in V: \beta(u, v) = \beta(v, u)$ \item \underline{positiv definit} wenn $\forall v \ V\setminus\{0\}: \beta(v, v) > 0$ \item \underline{skalares Produkt} wenn $\beta$ symmetrisch, positiv definit (spd) und bilinear ist. \end{itemize} \end{defin} \subsubsection{Bemerkung} $v=0\in V \implies 0 \cdot v = v \implies \beta(v, v) = \beta(0 \cdot v, v) = 0 \cdot \beta(v, v) = 0$ \subsubsection{Beispiele} \begin{itemize} \item Sei $V = \R^n$ und $v= (v_1, \dots, v_n), w= (w_1, \dots, w_n)$ \\ $\beta_1(v, w) = \sum\limits_{i=1}^n v_1 w_1= v^Tw$ ist symmetrische positiv definite Bilinearform. \item Sei $\dim(V) = n$ und $B=(b_1, \dots, b_n)$ Basis \\ Sei für $v, w \in V: \begin{cases} {}_B \Phi(v) = (v_1, \dots, v_n) \\ {}_B \Phi(w) = (w_1, \dots, w_n)\end{cases}$ \\ $\beta_2(v, w) = \sum\limits_{i=1}^n v_i w_i = \beta_1({}_B \Phi(v), {}_B \Phi(w))$ ist spd. \item $V= \R^2, v= \begin{pmatrix}v_1\\v_2\end{pmatrix}, w= \begin{pmatrix}w_1\\w_2\end{pmatrix}, A = \begin{pmatrix} 4 & -2 \\ -2 & 3 \end{pmatrix}$ \\ $\beta_3(v, w) = v^T A w \in \R$ \\ symmetrisch, weil \[ \beta_3(v, w) = \beta_3(v, w)^T = (v^T A w)^T = w^T A^T v = w^T A v = \beta_3(w, v) \checkmark \] $\beta_3(u, v) = 4v_1w_1 - 2v_1w_2 - 2v_2w_1 + 3v_2 w_2 \implies \beta(v, v) = (2 v_1 - v_2)^2 + 2 v_2^2 = 0 \implies v_2 = 0 \implies (2v_1)^2 = 0 \implies v_1 = 0$ \item Sei $a, b \in \R, a < b, V = \{f:[a, b] \to \R: f \text{ stetig}\}$ \\ Sei $h \in V: h(t) > 0 \forall t \in [a, b]$ \begin{align*} & \beta_4(f, g) = \int_a^b f(t) g(t) h(t) dt \text{ bilinear, symmetrisch} \\ & \beta_4(f, f) = \int_a^b \lvert f(t) \rvert ^2 h(t) dt = 0 \implies f= 0 \end{align*} \end{itemize} \begin{defin} Ein Vektorraum mit skalarem Produkt heißt \underline{Euklidischer Raum}.\\ Man schreibt oft $u \cdot v, \inner uv$ anstatt $\beta(u, v)$. \end{defin} Nun sei $\K = \C$ \begin{defin} Sei $V$ ein \C-Vektorraum und $\beta: V \times V \to \C$. $\beta$ heißt \underline{hermitesche Form} wenn für alle $u, v, w \in V, \lambda \in \C$: \begin{enumerate}[label=\roman*)] \item $\beta(u + v, w) = \beta(u, w) + \beta(v, w)$ \item $\beta(\lambda u, v) = \lambda \beta(u, v)$ \item $\beta(u, v) = \overline{\beta(u, v)}$ \end{enumerate} \end{defin} \begin{lemma} \label{theo:3.1.4} Sei $\beta$ hermitesche Form \begin{enumerate}[label=\alph*)] \item $\beta(u, v + w) = \beta(u, v) + \beta(u, w)$ \item $\beta(u, \lambda v) = \overline{\lambda} \beta(u, v)$ \item $\beta(u, u) \in \R$ \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item $\beta(u, v+w) \overset{\text{iii}}{=} \overline{\beta(v+ w, u)} \overset{\text{i}}{=} \overline{\beta(v, u)} + \overline{\beta(w, u)} \overset{\text{iii}}{=}\beta(u, v) + \beta(u, w) \checkmark$ \item $\beta(u, \lambda v) \overset{\text{iii}}{=} \overline{\beta(\lambda v, u)} \overset{\text{ii}}{=} \overline{\lambda}\cdot\overline{\beta(v, u)} \overset{\text{iii}}{=} \overline{\lambda} \beta(u, v)$ \item $z = \overline{z} \iff z \in \R$ \\ $\beta(u, u) \overset{\text{iii}}{=} \overline{\beta(u, u)} \implies \beta(u, u) \in \R$ \end{enumerate} \end{proof} \end{lemma} \begin{defin} Sei $\beta$ hermitesche Form. \begin{itemize} \item $\beta$ heißt \underline{positiv definit} wenn $\forall v \in V\setminus\{0\}: \underbrace{\beta(v, v)}_{\in\R} > 0$ \item Eine positiv definite hermitesche Form heißt \underline{skalares Produkt} \item Ein komplexer Vektorraum mit einem skalaren Produkt heißt \underline{unitärer} \underline{Raum}. \end{itemize} \end{defin} \subsubsection{Beispiel} $V = \C^n, u = (u_1, \dots, u_n), v = (v_1, \dots, v_n)$ \\ $u \cdot v = \sum\limits_{i=1}^n u_i \overline{v_i}$ ist skalares Produkt \par Wir zeigen nun, dass jeder euklidische Vektorraum in einen unitären Vektorraum eingebettet werden kann. \begin{defin} Sei $V$ ein \R-Vektorraum. \begin{align*} & V_\C := \{ (u, v): u, v\in V \} \text{ [Schreibe $(u, v) =: u + \overset{\mathclap{\substack{i^2 = -1 \\ |}}}{i} \cdot v$]} \\ & (u_1, v_1) + (u_2, v_2) := (u_1 + u_2, v_1 + v_2) \text{ Addition} \\ & \lambda = (\gamma + i \delta) \in \C, \lambda \cdot (u, v) = (\gamma u - \delta v, \delta u + \gamma v) \text{ skalare Multiplikation} \\ & \lambda(u + iv) = (\gamma + i \delta) (u + iv) = \gamma u + i \gamma v + i \delta u - \delta v \\ & \; \; =(\gamma u - \delta v) + i (\gamma v + \delta u) \\ & \implies (V_\C, +, \cdot) \text{ ist \C-Vektorraum} \end{align*} $V_\C$ heißt die \underline{komplexe Erweiterung von V}. \end{defin} Einbettung \[ \iota: \begin{cases}V \to V_\C \\ v \mapsto (v, 0) = v + i\cdot 0 \end{cases} \] \begin{lemma} \leavevmode \begin{enumerate}[label=\alph*)] \item $V$ ist durch die Einbettung $v \overset{\iota_V}{\mapsto} (v, 0)$ \dq in $V_\C$ enthalten\dq, das heißt $\iota_V$ ist injektiv. \item Seien $V, W$ \R-Vektorräume, $\alpha \in \Hom_\R(V, W)$. Dann existiert eine eindeutige komplexe Erweiterung $\alpha_\C \in \Hom_\C(V_\C, W_\C)$ mit \[ \forall v \in V: \alpha_\C(\iota_V(v)) = \iota_W(\alpha(v)) \] \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item $\iota_V$ ist linear \checkmark \\ $\iota_V(v) = (0, 0) \implies v = 0$ (injektiv) \item Sei $\alpha_\C$ so eine Fortsetzung \\ $\alpha_\C(u + iv) = \alpha_\C(u) + i \alpha_\C(v) = \alpha(u) + i\alpha(v)$ \\ $\alpha_\C((u, v)) = (\alpha(u), \alpha(v))$ Dadurch ist $\alpha_\C$ eindeutig bestimmt! \end{enumerate} \end{proof} \end{lemma} \begin{defin} $\alpha_\C$ heißt die komplexe Forsetzung von $\alpha$ \end{defin} Auch skalare Produkte können eindeutig fortgesetzt werden. \begin{satz} Sei $(V, \beta)$ euklidischer \R-Vektorraum. Dann existiert genau eine hermitesche Form $\beta_\C$ auf $V_\C$, welche $\beta$ fortsetzt: \[ \forall v, w \in V: \beta_\C(\iota_V(v), \iota_V(w)) = \beta(v, w) \] \begin{proof} Ein solches $\beta_\C$ muss erfüllen, dass \begin{align*} \beta_\C(u_1 + i v_1, u_2 + i v_2) & = \beta_\C(u_1, u_2 + i v_2) + i \beta_\C(v_1, u_2+iv_2) \\ & = \beta_\C(u_1, u_2) + i \beta_\C(v_1, u_2) \underset{\mathclap{\substack{| \\\text{\ref{theo:3.1.4} b)}}}}{-} i \beta_\C(u_1, v_2) + \beta_\C(v_1, v_2) \\ & = \beta(u_1, u_2) + \beta(v_1, v_2) + i(\beta(v_1, u_2) - \beta(u_1, v_2)) \end{align*} und dadurch ist $\beta_\C$ eindeutig bestimmt. \end{proof} \end{satz} \begin{satz}[Cauchy-Schwarz] \label{theo:3.1.10} Für $u, v$ in einem euklidischen/unitären Vektorraum $V$ gilt \[ \lvert \inner uv \rvert ^2 \le \inner uu \inner vv \] Gleichheit gilt genau wenn $u, v$ linear abhängig sind. \begin{proof} $v=0 \checkmark$ \\ $v \neq 0 \implies \inner vv >0$ \\ Sei $\lambda \in \C \implies$ \begin{align*} 0 & \le \inner{u - \lambda v}{ u - \lambda v } \\ & = \inner u {u - \lambda v} - \lambda \inner v {u-\lambda v} \\ & = \inner uu - \overline{\lambda} \inner uv - \lambda \inner vu + \underbrace{\lambda \overline{\lambda}}_{=\lvert\lambda\rvert^2} \inner vv \end{align*} Sei $\lambda := \dfrac{\inner uv}{\inner vv}, \overline{\lambda} = \dfrac{\overline{\inner uv }}{\overline{\inner vv }} =\dfrac{\inner vu}{\inner vv}$, so folgt \begin{align*} 0 & \le \inner uu - \frac{\inner vu \inner uv }{\inner vv } - \frac{\inner uv \inner vu }{\inner vv } + \frac{\cancel{\inner vv } \inner uv \inner vu } {\inner{v}{v}^{\cancel{2}}} \\ & = \inner uu - \frac{\lvert \inner uv \rvert^2}{\inner vv } \\ & \implies 0 \le \inner uu \inner vv - \lvert \inner uv \rvert ^2 \\ & \implies \inner uu \inner vv \ge \lvert \inner uv \rvert^2. \end{align*} Gleichheit gilt, wenn $\inner{u - \lambda v}{u - \lambda v} = 0$, also $u, v$ linear abhängig. \end{proof} \end{satz} \begin{defin} Man nennt \begin{itemize} \item $\norm v := \sqrt{\inner vv }$ die \underline{Länge} oder die \underline{Norm} von $v \in V$. \item $\cos(\sphericalangle v w) := \dfrac{\inner vw }{\norm v \norm w }$ der Kosinus des \underline{Winkels} zwischen $v, w \in V$. \\ (Wegen Satz \ref{theo:3.1.10} ist $\cos(\sphericalangle v w) \le 1$ und damit auch $\sphericalangle v w$ wohldefiniert!) \item $v\in V$ heißt \underline{normiert} wenn $\norm v = 1$ \end{itemize} \end{defin} \begin{satz} $\norm \cdot $ ist eine \underline{Norm}, das heißt \begin{enumerate}[label=\alph*)] \item $\norm v \ge 0$ \item $\norm v = 0 \implies v = 0$ \item $\norm {\lambda v} = \lvert \lambda \rvert \norm v $ \item $\norm {v + w} \le \norm v + \norm w $ (Dreiecksungleichung) \end{enumerate} \begin{proof} \begin{enumerate}[label=\alph*)] \item $\norm v = (\underbrace{\inner vv }_{\in [0, \infty)})^\frac12 \ge 0$ \item $\norm v = 0 \implies \norm{v}^2 = 0 \implies \inner vv = 0 \implies v = 0$ \item $\norm{\lambda v}^2 = \inner{\lambda v}{\lambda v}= \norm{\lambda}^2 \inner vv = \lvert \lambda \rvert^2 \norm{v}^2$ \item \begin{align*} \norm{u + v}^2 & = \inner{u + v}{u +v} \\ & = \inner u{u+v} + \inner v{u+v} = \inner uu + \inner uv + \inner vu + \inner v, v \\ & = \inner uu + \inner uv + \overline{\inner uv } + \inner vv \\ & = \inner uu + 2 \Re(\inner uv ) + \inner vv \\ & \le \inner uu + 2 \lvert \inner uv \rvert + \inner vv \\ & \le \inner uu 2 \norm u \norm v + \inner vv \\ & = \norm{u}^2 + 2 \norm u \norm v + \norm{v}^2 = (\norm u + \norm v )^2 \end{align*} \end{enumerate} \end{proof} \end{satz} \begin{defin} Sei $V = (v_1, \dots, v_k)$ mit $\forall i \in [k]: v_i \neq 0$. \begin{itemize} \item $v, w$ heißen \underline{orthogonal}, wenn $\inner vw = 0$ [schreibe auch $v \bot w$] \item $V$ heißt \underline{Orthogonalsystem} (OS), wenn $\forall i, j \in [k], i\neq j: v_i \bot v_j$ \item $V$ heißt \underline{Orthonormalsystem} (ONS), wenn $V$ ein Orthogonalsystem ist und $\forall i \in [k]: \norm{v_i}= 1$ \item $V$ heißt \underline{Orthogonalbasis} (OB), wenn $V$ ein Orthogonalsystem und eine Basis ist. \item $V$ heißt \underline{Orthonormalbasis} (ONB), wenn $V$ ein Orthonormalsystem und eine Basis ist. \end{itemize} \end{defin} \begin{satz} Sei $(v_1, \dots, v_k)$ ein Orthogonalsystem. Dann ist $(v_1, \dots, v_k)$ linear \\unabhängig. \begin{proof} Angenommen $\lambda_1 v_1 + \dots + \lambda_k v_k = 0$ \[ \forall i \in [k]: 0 = \lambda_1 \underbrace{\inner {v_1}{v_i}}_{=0} + \dots + \lambda_i \underbrace{\inner {v_i}{v_i}}_{=0} + \dots + \lambda_k \underbrace{\inner {v_k}{v_i}}_{=0} = \lambda_i \underbrace{\norm{v_i}^2}_{\neq 0} \] $\implies \lambda_i = 0$ \end{proof} \end{satz} \begin{satz} Sei $B=(b_1, \dots, b_n)$ Orthonormalbasis von $V, n\in \mathbb{N}\cup \{\infty\}$. Dann gilt für alle $v, w \in V$ und $(\lambda_1, \dots, \lambda_n) = {}_B \Phi(v), (\mu_1, \dots, \mu_n) = {}_B\Phi(w)$: \[ \inner vw = \sum_{i=1}^n \lambda_i \overline{\mu_i} \] Weiters gilt $\lambda_i = \inner{v}{b_i}, b_i^*(v) = \inner v {b_i}$ \begin{proof} \begin{align*} & \inner{b_i}{b_j} = \delta_{ij} \\ & \begin{rcases}v = \sum_{i=1}^n \lambda_i b_i \\ w = \sum_{i=1}^n \mu_i b_i\end{rcases} \implies \inner vw = \sum_{i, j = 1}^n \inner{\lambda_i b_i}{\mu_j b_j} = \sum_{i, j = 1}^n \lambda_i \overline{\mu_j} \inner{b_i}{b_j} = \sum_{i=1}^n \lambda_i \overline{\mu_i} \\ & {}_B \Phi(b_i) = (0, \dots, \overset{i}{1}, \dots, 0) \implies \inner v{b_i} = \sum_{j=1}^n \lambda_j \delta_{1j} = \lambda_1 \end{align*} \end{proof} \end{satz} \begin{satz}[Gram-Schmidt Orthonormalisierungsverfahren] \label{theo:3.1.16} Sei $(a_1, a_2, \dots) \subseteq V$ linear unabhängig. Dann existiert genau ein Orthonormalsystem $(b_1, b_2, \dots)$ mit \begin{enumerate}[label=\roman*)] \item $\forall k: \langle a_1, \dots, a_k \rangle = \langle b_1, \dots b_k \rangle =: U_k$ \item Die Basistransformationsmatrix $M_k$ zwischen der Basen $(a_1, \dots, a_k)$ und $(b_1, \dots, b_k)$ von $U_k$ hat positive Determinante. \end{enumerate} \begin{proof} $b_1, b_2, \dots$ werden induktiv definiert. \begin{itemize} \item $b_1 = \frac{a_1}{\norm{a_1}}, M_1 = \begin{pmatrix}\frac{1}{\norm{a_1}}\end{pmatrix}$ \\ Eindeutigkeit: Sei $\tilde b_1$ mit i), ii) $\implies \tilde b_1 = c \cdot a_1, 1 = \norm{\tilde b_1} = \norm{c \cdot a_1} = \lvert c \rvert \norm{a_1}$ \\ $ \implies \lvert c \rvert = \dfrac{1}{\norm{a_1}} \implies \tilde M_k =(c)$ \item $(b_1, \dots, b_n)$ schon konstruiert mit i), ii) \\ Sei $c_{n+1} := a_{n+1} - \sum\limits_{j=1}^n \inner{a_{n+1}}{b_j} b_j$ \begin{align*} & \forall i \in [n]: \inner{c_{n+1}}{b_i} = \inner{a_{n+1}}{b_i} - \sum\limits_{j=1}^n \inner{a_{n+1}}{b_j} \underbrace{\inner{b_j}{b_i}}_{\delta_{ij}} \\ & = \inner{a_{n+1}}{b_i} - \inner{a_{n+1}}{b_i} = 0 \implies c_{n+1} \bot \langle b_1, \dots, b_n \rangle \end{align*} $b_{n+1} = \dfrac{c_{n+1}}{\norm{c_{n+1}}} \implies (b_1, \dots, b_{n+1})$ Orthonormalsystem mit \\ $\langle b_1, \dots, \rangle = \langle a_1, \dots, a_n \rangle$ \begin{align*} & b_1 = \mu_{11} a_1 \\ & b_2 = \mu_{21} a_1 + \mu_{22} a_2 \\ & b_3 = \mu_{31} a_1 + \mu_{32} a_2 + \mu_{33} a_3 \\ & \vdots \\ & b_n = \mu_{n1} a_1 + \dots + \mu_{nn} a_n \\ & b_{n+1} = \mu_{n+1 1} a_1 + \dots + \mu_{n+1 n} a_n + \dfrac{1}{\norm{c_{n+1}}} a_{n+1} \\ & \implies \det(\mu_{ij}) = \det(M_n) \cdot \dfrac{1}{\norm{c_{n+1}}} > 0 \end{align*} Eindeutigkeit: Sei $\tilde b_{n+1}$ ein weiterer Vektor mit i), ii) \begin{align*} & \implies \tilde b_{n+1} = \mu_1 b_1 + \dots + \mu_n b_n + \mu b_{n+1} \\ & \forall i \in [n]: 0 = \inner{\tilde b_{n+1}}{b_i} = \mu_i \implies \tilde b_{n+1} = \mu b_{n+1} \\ & 1 = \norm{\tilde b_{n+1}} = \lvert \mu \rvert \norm{b_{n+1}} = \lvert \mu \rvert \implies \lvert \mu \rvert = 1 \\ & \det(\tilde M_{n+1}) = \det(M_n) \cdot \mu > 0 \implies \mu = 1 \land \tilde b_{n+1} = b_{n+1} \end{align*} \end{itemize} \end{proof} \end{satz} \begingroup \allowdisplaybreaks \subsubsection{Veranschaulichung im $\R^2$} \begin{tikzpicture}[scale=3] \tikzmath{ \a1 = 3; \a2 = 1; \a3 = 2; \a4 = 2; \norma1 = sqrt(\a1^2 + \a2^2); \normeda1 = \a1 / \norma1; \normeda2 = \a2 / \norma1; \innerprod = \normeda1 * \a3 + \normeda2 * \a4; \c1 = \a3 - (\innerprod * \normeda1); \c2 = \a4 - (\innerprod * \normeda2); \t1 = (\innerprod * \normeda1); \t2 = (\innerprod * \normeda2); \normc = sqrt(\c1^2 + \c2^2); \b3 = \c1 / \normc; \b4 = \c2 / \normc; } \draw [->] (0, 0) --node[below]{$a_1$} (\a1, \a2); \draw [->] (0, 0) --node[above]{$a_2$} (\a3, \a4); \draw [->, blue, thick] (0, 0) --node[below right]{$\inner{a_2}{b_1}b_1$} (\t1, \t2); \draw [->, violet, very thick] (0, 0) --node[below right]{$\frac{a_1}{\norm{a_1}}=:b_1$} (\normeda1, \normeda2); \draw [->, magenta, thick] (0, 0) --node[left]{$c_2:=a_2 - \inner{a_2}{b_1}b_1$} (\c1, \c2); \draw [->, teal, very thick] (0, 0) --node[right]{$\frac{c_2}{\norm{c_2}}=:b_2$} (\b3, \b4); \end{tikzpicture} \subsubsection{Beispiel} $V = \R^4, a_1 = \begin{pmatrix} 4 \\ 2 \\ -2 \\ -1 \end{pmatrix}, a_2 = \begin{pmatrix} 2 \\ 2 \\ -4 \\ -5 \end{pmatrix}, a_3 = \begin{pmatrix} 0 \\ 8 \\ -2 \\ -5 \end{pmatrix}$ \begin{align*} & b_1 = \frac{1}{\norm{a_1}} a_1 ,\; \norm{a_1} = (4^2 + 2^2 + 2^2 + 1^2)^{\frac 12} = \sqrt{25} = 5 \\ & = \frac 15 \begin{pmatrix} 4 \\ 2 \\ -2 \\ -1 \end{pmatrix} ,\; \inner{a_2}{b_1} = \frac 15 \begin{pmatrix} 2 \\ 2 \\ -4 \\ -5 \end{pmatrix} \cdot \begin{pmatrix} 4 \\ 2 \\ -2 \\ -1 \end{pmatrix} = \frac 15 (8 + 4 + 8 + 5)^\frac 12 = \frac{25}5 \\ & c_2 = a_2 - \underbrace{\inner{a_2}{b_1}}_5 b_1 = \begin{pmatrix} 2 \\ 2 \\ -4 \\ -5 \end{pmatrix} - \begin{pmatrix} 4 \\ 2 \\ -2 \\ -1 \end{pmatrix} = \begin{pmatrix} -2 \\ 0 \\ -2 \\ -4 \end{pmatrix} \\ & \norm c_2 = (4 + 4 + 16) = \sqrt{24} \\ & \implies b_2 = \frac{1}{\sqrt{24}} \begin{pmatrix} -2 \\ 0 \\ -2 \\ -4 \end{pmatrix} \\ & c_3 = a_3 - \inner{a_3}{b_1} b_1 - \inner{a_3,b_2} b_2 = \dots = \begin{pmatrix} -2 \\ 6 \\ 2 \\ 0\end{pmatrix} \\ & \norm{c_3} = (4 + 36 + 4)^\frac 12 = \sqrt{44} \\ & \implies b_3 = \frac 1{\sqrt{44}} \begin{pmatrix} -2 \\ 6 \\ 2 \\ 0 \end{pmatrix} \end{align*} \endgroup \begin{satz} Sei $V$ euklidischer/unitärer Vektorraum mit höchstens abzählbarer Dimension. Dann kann jedes Orthonormalsystem zu einer Orthogonalbasis von $V$ ergänzt werden. \begin{proof} Sei $(b_1, \dots, b_k)$ ein Orthonormalsystem, $(b_1, \dots, b_k, a_{k+1}, \dots)$ eine Basis. Satz \ref{theo:3.1.16} $\implies \exists b_{k+1}, b_{k+2}, \dots$ mit $(b_1, \dots, b_k, b_{k+1}, \dots)$ Orthonormalbasis. \end{proof} \end{satz} \end{document}