2022-03-30 20:19:11 +02:00
\documentclass [12pt, a4paper] { report}
2022-04-01 17:31:09 +02:00
2022-04-27 23:03:56 +02:00
\PassOptionsToPackage { dvipsnames} { xcolor}
\usepackage { tikz}
2022-03-30 20:19:11 +02:00
\usepackage { amsmath}
\usepackage { amsfonts}
\usepackage { enumitem}
\usepackage { amsthm}
2022-03-30 22:06:16 +02:00
\usepackage { amssymb}
2022-03-31 10:46:15 +02:00
\usepackage { marvosym}
2022-03-30 20:19:11 +02:00
\usepackage { mathtools}
2022-03-30 21:00:40 +02:00
\usepackage [colorlinks=true, linkcolor=magenta] { hyperref}
2022-04-02 21:03:36 +02:00
\usepackage { cancel}
2022-04-03 18:10:13 +02:00
\usepackage [ngerman] { babel}
2022-04-28 10:33:22 +02:00
\usepackage { harpoon}
2022-05-05 11:26:11 +02:00
\usetikzlibrary { tikzmark,calc,arrows,angles,math}
2022-03-30 20:19:11 +02:00
\title { Lineare Algebra 2}
2022-03-30 21:00:40 +02:00
\date { Sommersemester 2022}
2022-04-01 17:31:09 +02:00
\author { Philipp Grohs \\ \small \LaTeX -Satz: Anton Mosich}
2022-03-30 20:19:11 +02:00
2022-03-30 21:00:40 +02:00
\newtheoremstyle { theostyle} %
2022-04-01 17:31:09 +02:00
{ 3pt} %
{ 3pt} %
{ } %
{ } %
{ \bfseries } %
{ :} %
{ \newline } %
{ } %
2022-03-30 20:19:11 +02:00
2022-04-27 23:03:56 +02:00
\newcounter { textbox}
\def \tl { \stepcounter { textbox} \tikzmarknode { a\thetextbox } { \strut } }
\def \br { \tikzmarknode { b\thetextbox } { \strut } \begin { tikzpicture} [overlay, remember picture]\draw ($ ( a \thetextbox .north west ) + ( - 0 . 4 \arraycolsep , 0 ex ) $ ) rectangle ($ ( b \thetextbox .south east ) + ( 0 . 2 \arraycolsep , 0 ex ) $ );\end { tikzpicture} }
% https://tex.stackexchange.com/questions/481978/how-to-write-the-block-matrix-in-latex
2022-04-28 10:33:22 +02:00
\newcommand * { \vect } [1]{ \overrightharp { \ensuremath { #1} } }
\newcommand \R { \ensuremath { \mathbb { R} } }
\newcommand \C { \ensuremath { \mathbb { C} } }
\newcommand \K { \ensuremath { \mathbb { K} } }
2022-03-30 21:00:40 +02:00
\theoremstyle { theostyle}
2022-03-30 20:19:11 +02:00
\newtheorem { theo} { Theorem} [section]
\newtheorem { lemma} [theo]{ Lemma}
\newtheorem { defin} [theo]{ Definition}
\newtheorem { satz} [theo]{ Satz}
\newtheorem { korollar} [theo]{ Korollar}
\newtheorem { folgerung} [theo]{ Folgerung}
\DeclareMathOperator { \sgn } { sgn}
2022-03-30 23:31:00 +02:00
\DeclareMathOperator { \spec } { spec}
2022-03-30 20:19:11 +02:00
\DeclareMathOperator { \spur } { sp}
2022-04-28 10:33:22 +02:00
\DeclareMathOperator { \Hom } { Hom}
2022-03-30 22:06:16 +02:00
\DeclareMathOperator { \adj } { adj}
2022-03-30 20:19:11 +02:00
\DeclareMathOperator { \id } { id}
\DeclareMathOperator { \diag } { diag}
2022-03-30 23:31:00 +02:00
\DeclareMathOperator { \eig } { Eig}
\DeclareMathOperator { \nxn } { n \times n}
2022-04-12 12:36:21 +02:00
\DeclareMathOperator { \im } { im}
2022-03-30 20:19:11 +02:00
2022-04-28 10:33:22 +02:00
\newcommand \homkv { \Hom _ \K (V, V)}
\newcommand \homk { \Hom _ \K }
2022-05-04 13:44:26 +02:00
\newcommand \inner [2] { \langle #1, #2 \rangle }
\newcommand \norm [1] { \lVert #1 \rVert }
2022-04-28 10:33:22 +02:00
2022-03-30 20:19:11 +02:00
\begin { document}
\maketitle
2022-04-03 18:10:13 +02:00
\tableofcontents
2022-03-30 20:19:11 +02:00
\chapter { Determinanten}
2022-03-30 21:00:40 +02:00
2022-03-30 20:19:11 +02:00
\section { Permutationen}
2022-03-30 21:00:40 +02:00
2022-03-30 20:19:11 +02:00
\begin { defin}
2022-04-12 12:48:05 +02:00
Sei $ n \in \mathbb { N } \setminus \{ 0 \} , [ n ] : = \{ 1 , 2 , \dots , n \} $ . \\
Eine bijektive Abbildung $ \pi : [ n ] \to [ n ] $ heißt \underline { Permutation} von $ [ n ] $ .
Wir definieren die \underline { symmetrische Gruppe}
$ S _ n : = \{ \pi \text { Permutation von } [ n ] \} $
mit der Hintereinanderausführung als Gruppenoperation.
2022-03-30 20:19:11 +02:00
\end { defin}
2022-04-01 17:31:09 +02:00
2022-03-30 20:19:11 +02:00
\subsubsection { Bemerkung}
\begin { itemize}
2022-04-12 12:48:05 +02:00
\item $ ( S _ n, \circ ) $ ist eine Gruppe.
\item $ \pi \in S _ n $ ist eindeutig durch das Tupel $ ( \pi ( 1 ) , \dots , \pi ( n ) ) $ definiert.
\item Fixpunkte $ ( \pi ( i ) = i ) $ werden oft weggelassen.
2022-03-30 20:19:11 +02:00
\end { itemize}
\begin { defin}
2022-04-12 12:48:05 +02:00
$ \pi \in S _ n $ heißt \underline { Transposition} wenn es $ i, j \in [ n ] $ gibt mit
\[ \pi ( k ) = \begin { cases } k & k \notin \{ i, j \} \\ i & k = j \\ j & k = i \end { cases } \]
Wir schreiben $ \pi = ( ij ) $ .
2022-03-30 20:19:11 +02:00
\end { defin}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.1.3}
2022-04-12 12:48:05 +02:00
Es gilt $ \lvert S _ n \rvert = n ! $ .
\begin { proof}
Vollständige Induktion
\begin { itemize}
\item $ n = 1 : S _ 1 = \{ \id \} \implies \lvert S _ 1 \rvert = 1 = 1 ! $
\item $ n - 1 \to n: $ \\ Angenommen $ \lvert S _ { n - 1 } \rvert = ( n - 1 ) ! $ . Dann gilt $ \lvert \{ \pi \in S _ n: \pi ( n ) = n \} \rvert = ( n - 1 ) ! $ . Sei allgemein $ i \in [ n ] $ . Dann gilt $ \pi ( n ) = i \iff ( in ) \circ \pi ( n ) = n $ . Also gilt
\begin { align*}
& \lvert \{ \pi \in S_ n: \pi (n)=i\} \rvert = \lvert \{ (in)\circ \pi : \pi (n)=n\} \rvert \\
& = \lvert \{ \pi : \pi (n)=n\} \rvert = (n-1)!
\end { align*}
Weiters gilt
\begin { align*}
& S_ n = \bigcup _ { i\in [n] } ^ \bullet \{ \pi \in S_ n: \pi (n)=i\} \implies \\
& \lvert S_ n\rvert = \sum _ { i\in [n] } \lvert \{ \pi \in S_ n: \pi (n) = i\} \rvert
= n\cdot (n-1)! = n!
\end { align*}
\end { itemize}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.1.4}
2022-04-12 12:48:05 +02:00
Für $ n \in \mathbb { N } _ { \ge 2 } $ ist jedes $ \pi \in S _ n $ das Produkt von (endlich vielen) Transpositionen.
\begin { proof}
\begin { itemize}
\item $ n = 2 : S _ 2 = \{ \id , ( 2 1 ) \} $
\item $ n - 1 \to n $ \\
Sei $ \pi \in S _ n $ . Dann gilt (siehe Beweis von Satz \ref { theo:1.1.3} ) mit $ i = \pi ( n ) $ , dass
\[ \underbrace { ( i n ) \pi } _ { \pi _ i } ( n ) = n \]
Sei $ \pi _ i = ( \underbrace { \pi _ i ( 1 ) \dots \pi _ i ( n - 1 ) } _ { \in S _ { n - 1 } } n ) \underset { \text { Induktions VS } } { \implies } \pi _ i = ( i _ 1 j _ 1 ) \dots ( i _ k j _ k ) $ .\\
Außerdem gilt $ \pi = ( i n ) \pi _ i $ , also $ \pi = ( i n ) ( i _ 1 j _ 1 ) \dots ( i _ k j _ k ) $
\end { itemize}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\subsubsection { Bemerkung}
\begin { itemize}
2022-04-12 12:48:05 +02:00
\item Produktdarstellung ist nicht eindeutig, zum Beispiel:\\ $ ( 3 1 2 ) = ( 2 1 ) ( 3 1 ) = ( 3 1 ) ( 3 2 ) $
\item $ f \in \mathbb { Z } [ X _ 1 , \dots , X _ n ] , \pi \in S _ n $ \\ $ \pi f ( X _ 1 , \dots , X _ n ) : = f ( X _ { \pi ( 1 ) } , \dots , X _ { \pi ( n ) } ) $
2022-03-30 20:19:11 +02:00
\end { itemize}
\subsubsection { Beispiel}
$ \pi = ( 2 3 1 ) , f ( X _ 1 , X _ 2 , X _ 3 ) = X _ 1 - X _ 2 + X _ 1 X _ 3 \implies \pi f ( X _ 1 , X _ 2 , X _ 3 ) = X _ 2 - X _ 3 + X _ 2 X _ 1 $
2022-03-30 21:00:40 +02:00
\begin { lemma} \label { theo:1.1.5}
2022-04-12 12:48:05 +02:00
Sei $ f ( X _ 1 , \dots , X _ n ) = \prod \limits _ { \substack { i, j \in [ n ] \\ i < j } } ( X _ j - X _ i ) \in \mathbb { Z } [ X _ 1 , \dots , X _ n ] $ .\\
Dann gilt \begin { enumerate} [label=\alph * )]
\item Zu jedem $ \pi \in S _ n $ existiert eine eindeutig Zahl $ s ( \pi ) \in \{ - 1 , 1 \} $ mit $ \pi f = s ( \pi ) f $ .
\item Für $ \pi $ eine Transposition gilt $ s ( \pi ) = - 1 $ .
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item \begin { equation*} \begin { aligned}
\pi f(X_ 1, \dots , X_ n) & = \prod _ { i<j} (X_ { \pi (j)} -X_ { \pi (i)} ) \\
& =\Bigg (\prod _ { \substack { i<j \\ \pi (i)<\pi (j)} } (X_ { \pi (j)} -X_ { \pi (i)} )\Bigg )\Bigg (\prod _ { \substack { i<j\\ \pi (j)<\pi (i)} } (X_ { \pi (i)} -X_ { \pi (j)} )\Bigg ) \\
& = (-1)^ { \lvert \{ (i, j)\in [n] \times [n] :i<j\land \pi (i)>\pi (j)\} \rvert } \prod _ { i<j} (X_ j-X_ i) \\
& = s(\pi )f(X_ 1, \dots , X_ n) \text { mit } \\
s(\pi ) & = (-1)^ { \lvert \{ (i, j)\in [n] \times [n] :i<j\and \pi (i)>\pi (j)\} \rvert }
\end { aligned} \end { equation*}
\item $ \pi = ( i j ) , i<j, k \in \{ i + 1 , \dots , j - 1 \} $ :
$ \pi ( i, j ) = ( j, i ) , \pi ( i, k ) = ( j, k ) , \pi ( k, j ) = ( k, i ) $ \\
Für diese Paare gilt $ x<y \land \pi ( x ) > \pi ( y ) $ \\
Für alle anderen Paare gilt $ x<y \land \pi ( x ) < \pi ( y ) $ \\
Erstere sind $ 2 ( j - i - 1 ) + 1 $ Paare. Daraus folgt $ \pi f = ( - 1 ) ^ { 2 ( j - i - 1 ) + 1 } f $ , also $ s ( \pi ) = - 1 $ .
\end { enumerate}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { lemma}
\begin { defin}
2022-04-12 12:48:05 +02:00
\leavevmode
\begin { itemize}
\item Die durch Lemma \ref { theo:1.1.5} bestimmte Größe $ s ( \pi ) $ heißt \underline { Signum} von $ \pi \in S _ n $ . Wir schreiben $ \sgn ( \pi ) $ .
\item $ \pi $ heißt \underline { gerade} falls $ \sgn ( \pi ) = 1 $ und \underline { ungerade} falls $ \sgn ( \pi ) = - 1 $ .
\end { itemize}
2022-03-30 20:19:11 +02:00
\end { defin}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.1.7}
2022-04-12 12:48:05 +02:00
Für $ \pi , \sigma \in S _ n $ gilt \[ \sgn ( \sigma \pi ) = \sgn ( \sigma ) \sgn ( \pi ) \]
\begin { proof}
Nach Satz \ref { theo:1.1.5} (a) gilt:
\begin { align*}
& f(X_ 1, \dots , X_ n) = \prod \limits _ { i<j} (X_ j-X_ i) \implies \\
& \sigma \pi f(X_ 1, \dots , X_ n) = \sgn (\sigma \pi )f(X_ 1, \dots , X_ n)
\end { align*}
Andererseits gilt: \begin { equation*} \begin { split} \sigma \pi f(X_ 1, \dots , X_ n) & = \sigma [\pi f(X_1, \dots, X_n)] \\
& = \sigma [\sgn(\pi)f(X_1, \dots, X_n)] \\
& = \sgn (\pi ) \sigma f(X_ 1, \dots , X_ n) \\
& = \sgn (\pi )\sgn (\sigma )f(X_ 1, \dots , X_ n)
\end { split}
\end { equation*}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\begin { satz}
2022-04-12 12:48:05 +02:00
\leavevmode
\begin { enumerate} [label=\alph * )]
\item $ \sgn ( \pi ) = 1 \iff \pi $ ist Produkt gerader Anzahl Transpositionen
\item $ \pi $ Produkt von k Transpositionen $ \implies \sgn ( \pi ) = ( - 1 ) ^ k $
\end { enumerate}
\begin { proof}
Folgt direkt aus Satz \ref { theo:1.1.5} (b) und Satz \ref { theo:1.1.7}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\begin { folgerung}
2022-04-12 12:48:05 +02:00
Es gibt genau $ \frac 12 n ! $ gerade und $ \frac 12 n ! $ ungerade Permutationen in $ S _ n $
\begin { proof}
Folgt aus Satz \ref { theo:1.1.3}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { folgerung}
2022-04-03 19:15:57 +02:00
\begin { defin}
2022-04-12 12:48:05 +02:00
Die geraden Permutationen bilden eine Untergruppe $ A _ n $ von $ S _ n $ , die man \underline { alternierende Gruppe} nennt.
2022-04-03 19:15:57 +02:00
\end { defin}
2022-03-30 20:19:11 +02:00
\section { Multilinearformen}
\begin { defin}
2022-04-28 10:33:22 +02:00
Seien $ V _ 1 , \dots , V _ n, W $ \K -Vektorräume. Eine Abbildung $ \varphi : V _ 1 \times \dots \times V _ n \to W $ heißt \underline { n-linear} , wenn für alle $ v _ 1 , v' _ 1 \in V _ 1 , \dots , v _ n, v' _ n \in V _ n, i \in [ n ] , \lambda \in \K $ gilt, dass
2022-04-12 12:48:05 +02:00
\begin { itemize}
\item $ \varphi ( v _ 1 , \dots , v _ i + v' _ i, \dots , v _ n ) = \varphi ( v _ 1 , \dots , v _ i, \dots , v _ n ) + \varphi ( v _ 1 , \dots , v' _ i, \dots , v _ n ) $
\item $ \varphi ( v _ 1 , \dots , \lambda v _ i, \dots , v _ n ) = \lambda \varphi ( v _ 1 , \dots , v _ i, \dots , v _ n ) $ .
\end { itemize}
2022-04-28 10:33:22 +02:00
Ist $ W = \K $ und $ V _ 1 , \dots , V _ n = V $ , so heißt $ \varphi $ \underline { n-Linearform} . ($ n = 2 \to $ \underline { Bilinearform} )
2022-03-30 20:19:11 +02:00
\end { defin}
\subsubsection { Beispiel}
2022-04-04 22:25:02 +02:00
\[
2022-04-12 12:48:05 +02:00
\varphi :
\begin { cases}
2022-04-28 10:33:22 +02:00
\K ^ 2\times \K ^ 2 & \to \K \\
2022-04-12 12:48:05 +02:00
\left (\begin { pmatrix} a_ { 11} \\ a_ { 21} \end { pmatrix} , \begin { pmatrix} a_ { 12} \\ a_ { 22} \end { pmatrix} \right )
2022-04-28 10:33:22 +02:00
& \mapsto a_ { 11} a_ { 22} - a_ { 12} a_ { 21}
2022-04-12 12:48:05 +02:00
\end { cases}
2022-04-04 22:25:02 +02:00
\]
2022-03-30 20:19:11 +02:00
2022-03-30 21:00:40 +02:00
\begin { defin} \label { theo:1.2.2}
2022-04-12 12:48:05 +02:00
Eine n-Linearform von V heißt
\begin { itemize}
\item \underline { nicht ausgeartet} , falls
$ ( a _ 1 , \dots , a _ n ) \in V \times \dots \times V $ existiert mit \\
$ \varphi ( a _ 1 , \dots , a _ n ) \neq 0 $ .
\item \underline { alternierend} , falls $ \varphi ( a _ 1 , \dots , a _ n ) = 0 $ für $ a _ 1 , \dots , a _ n $ linear abhängig.
\end { itemize}
2022-03-30 20:19:11 +02:00
\end { defin}
\subsubsection { Bemerkung}
$ \varphi $ alternierend und $ a _ i = a _ j $ für $ i \neq j \implies \varphi ( a _ 1 , \dots , a _ n ) = 0 $ .
2022-03-30 21:00:40 +02:00
\begin { lemma} \label { theo:1.2.3}
2022-04-12 12:48:05 +02:00
Sei $ \varphi $ alternierende n-Linearform von V und $ \pi \in S _ n $ . Dann gilt für\\
$ a _ 1 , \dots , a _ n \in V $ :
\[ \varphi ( a _ { \pi ( 1 ) } , \dots , a _ { \pi ( n ) } ) = \sgn ( \pi ) \varphi ( a _ 1 , \dots , a _ n ) \]
\begin { proof}
Wegen Satz \ref { theo:1.1.4} und Satz \ref { theo:1.1.7} genügt es anzunehmen, dass $ \pi $ Transposition ist. Sei also $ \pi = ( ij ) $ . Es gilt
\begin { equation*}
\begin { aligned}
0 & =\varphi (a_ 1, \dots , \underbrace { a_ i+a_ j} _ { i} , \dots , \underbrace { a_ i+a_ j} _ { j} , \dots , a_ n) \\
& =\underbrace { \varphi (a_ 1, \dots , a_ i, \dots , a_ i, \dots , a_ n)} _ { 0} + \underbrace { \varphi (a_ 1, \dots , a_ j, \dots , a_ j, \dots , a_ n)} _ { 0} \\ & + \varphi (a_ 1, \dots , a_ i, \dots , a_ j, \dots , a_ n) + \varphi (a_ 1, \dots , a_ j, \dots , a_ i, \dots , a_ n) \\
& \implies \varphi (a_ 1, \dots , a_ j, \dots , a_ i, \dots , a_ n)=\underbrace { (-1)} _ { =\sgn { \pi } } \varphi (a_ 1, \dots , a_ i, \dots , a_ j, \dots , a_ n)
\end { aligned}
\end { equation*}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { lemma}
2022-03-30 21:00:40 +02:00
\begin { lemma} \label { theo:1.2.4}
2022-04-28 10:33:22 +02:00
Sei $ V $ $ \K $ -VR mit $ \dim ( V ) = n $ und $ \varphi $ nicht ausgeartete und alternierende n-Linearform von V. Dann gilt
2022-04-12 12:48:05 +02:00
\[ a _ 1 , \dots , a _ n \text { linear abhängig } \iff \varphi ( a _ 1 , \dots , a _ n ) = 0 \]
\begin { proof}
\begin { itemize}
\item [$\implies$] : folgt aus Definition \ref { theo:1.2.2}
\item [$\impliedby$] : z.Z.: $ \varphi ( b _ 1 , \dots , b _ n ) \neq 0 \impliedby b _ 1 , \dots , b _ n \text { Basis von } V $ . Da $ \varphi $ nicht ausgeartet ist, gibt es $ a _ 1 , \dots , a _ n \in V $ mit $ \varphi ( a _ 1 , \dots , a _ n ) \neq 0 $ .\\
2022-04-28 10:33:22 +02:00
Da $ b _ 1 , \dots , b _ n $ Basis gibt es $ \lambda _ { ij } \in \K $ mit $ a _ i = \sum \limits _ { j = 1 } ^ n { \lambda _ { ij } b _ j } $ \\
2022-04-12 12:48:05 +02:00
Wegen n-Linearität gilt
\[
\begin { aligned}
0\neq \varphi (a_ 1, \dots , a_ n) & =\sum _ { j_ 1=1} ^ n{ \dots } \sum _ { j_ n=1} ^ n{ \varphi (b_ { j_ 1} , \dots , b_ { j_ n} )\lambda _ { 1j_ 1} \cdots \lambda _ { nj_ n} } \\
& \underbrace { =} _ { \varphi \text { alternierend} }
\sum _ { \substack { j_ 1, \dots , j_ n \\ \text { paarweise verschieden} } }
{ \varphi (b_ { j_ 1} , \dots , v_ { j_ n} )\lambda _ { 1j_ 1} \cdots \lambda _ { nj_ n} } \\
& = \sum _ { \pi \in S_ n} \varphi (b_ { \pi (1)} , \dots , b_ { \pi (n)} )\lambda _ { 1\pi (1)} \cdots \lambda _ { n\pi (n)} \\
& \underbrace { =} _ { \text { Lemma \ref { theo:1.2.3} } } \varphi (b_ 1, \dots , b_ n)\Big (\sum _ { \pi \in S_ n} \sgn (\pi )\lambda _ { 1\pi (1)} \cdots \lambda _ { n\pi (n)} \Big ) \\
& \implies \varphi (b_ 1, \dots , b_ n)\neq 0
\end { aligned}
\]
\end { itemize}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { lemma}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.2.5}
2022-04-28 10:33:22 +02:00
Sei V $ \K $ -VR mit $ \dim ( V ) = n $ und Basis $ a _ 1 , \dots , a _ n $ .
2022-04-12 12:48:05 +02:00
\begin { enumerate} [label=\alph * )]
\item Für $ \varphi $ alternierende nicht ausgeartete n-Linearform gilt für\\
$ b _ i = \sum \lambda _ { ij } a _ j $ , dass
\[ \varphi ( b _ 1 , \dots , b _ n ) = \varphi ( a _ 1 , \dots , a _ n ) ( \sum _ { \pi \in S _ n } \sgn ( \pi ) \lambda _ { 1 \pi ( 1 ) } \cdots \lambda _ { n \pi ( n ) } )
\]
2022-04-28 10:33:22 +02:00
\item Sei $ c \in \K \setminus \{ 0 \} $ . Dann ist die Abbildung
2022-04-12 12:48:05 +02:00
\[
\varphi (b_ 1, \dots , b_ n) = c(\sum _ { \pi \in S_ n} \sgn (\pi )\lambda _ { 1\pi (1)} \cdots \lambda _ { n\pi (n)} )
\]
eine alternierende nicht ausgeartete n-Linearform.
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item folgt aus dem Beweis von Lemma \ref { theo:1.2.4} .
\item Man verifiziert leicht, dass $ \varphi $ n-linear ist. Weiters ist $ \varphi $ nicht ausgeartet, da
\[
\varphi (a_ 1, \ldots , a_ n) = c(\sum _ { \pi \in S_ n} \sgn (\pi )\delta _ { 1\pi (1)} , \cdots , \delta _ { n\pi (n)} )=c\cdot 1\neq 0
\]
z.Z.: $ \varphi $ alternierend. Seien $ b _ 1 , \dots , b _ n $ linear abhängig.\\
O.B.d.A. $ b _ 1 = \mu _ 2 b _ 2 + \cdots + \mu _ nb _ n $ . Dann gilt
\[ \varphi ( b _ 1 , \dots , b _ n ) = \sum _ { j = 2 } ^ { n } \mu j \varphi ( b _ j, b _ 2 , \dots , b _ n ) \]
Es genügt also zu zeigen, dass $ \varphi ( b _ 1 , \dots , b _ n ) = 0 $ falls $ b _ 1 = b _ i, i \in \{ 2 , \dots , n \} $ .
Dann gilt aber $ \lambda _ { 1 j } = \lambda _ { ij } \forall j $ .
\[
\begin { aligned}
\varphi (b_ i, \dots , b_ i, \dots , b_ n) & = c\cdot \sum _ { \pi \in S_ n} \sgn (\pi ) \lambda _ { i\pi (1)} \cdots \lambda _ { i\pi (i)} \cdots \lambda _ { n\pi (n)} \\
& =c\cdot \Bigg (\sum _ { \pi \in A_ n} \sgn (\pi )\lambda _ { i\pi (i)} \cdots \lambda _ { i\pi (i)} \cdots \lambda _ { n\pi (n)} \\
& +\sum _ { \pi \in A_ n} \underbrace { \sgn (\pi \circ (1i))} _ { =-\sgn (\pi )} \lambda _ { i\pi (i)} \cdots \lambda _ { i\pi (i)} \cdots \lambda _ { n\pi (n)} \Bigg ) \\
& =c\cdot \sum _ { \pi \in A_ n} (\sgn (\pi )-\sgn (\pi )) \cdot \cdots \\
& \cdot \cdots \lambda _ { i\pi (i)} \cdots \lambda _ { i\pi (i)} \cdots \lambda _ { n\pi (n)} =0
\end { aligned}
\]
\end { enumerate}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\subsubsection { Bemerkung}
2022-04-28 10:33:22 +02:00
Es gibt also zu jedem $ \K $ -VR V mit $ \dim ( V ) = n $ eine nicht ausgeartete alternierende n-Linearform.
2022-03-30 20:19:11 +02:00
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.2.6}
2022-04-28 10:33:22 +02:00
Sei V $ \K $ -VR mit $ \dim ( V ) = n $ und $ \varphi _ 1 , \varphi _ 2 $ nicht ausgeartete alternierende n-Linearformen. Dann existiert $ c \in \K \setminus \{ 0 \} $ mit $ \varphi _ 2 = c \cdot \varphi _ 1 $ .
2022-04-12 12:48:05 +02:00
\begin { proof}
Sei $ a _ 1 , \dots , a _ n $ Basis von V. Nach Lemma \ref { theo:1.2.4} ist
$ \varphi _ i ( a _ 1 , \dots , a _ n ) \neq 0 , i = 1 , 2 $ .\\
2022-04-28 10:33:22 +02:00
Sei $ c: = \dfrac { \varphi _ 1 ( a _ 1 , \dots , a _ n ) } { \varphi _ 2 ( a _ 1 , \dots , a _ n ) } \in \K \setminus \{ 0 \} $ .\\
2022-04-12 12:48:05 +02:00
Sei $ b _ 1 , \dots , b _ n $ mit $ b _ i = \sum \lambda _ { ij } a _ j $ .\\
Dann gilt nach Satz \ref { theo:1.2.5} (a), dass für $ i = 1 , 2 $
\[ \begin { aligned }
& \varphi _ i(b_ 1, \dots , b_ n) = \varphi _ i(a_ 1, \dots , a_ n)\underbrace { \sum _ { \pi \in S_ n} \lambda _ { 1\pi (1)} \cdots \lambda _ { n\pi (n)} } _ { \text { unabhängig von $ i $ !} } \\
& \implies \frac { \varphi _ 1(b_ 1, \dots , b_ n)} { \varphi _ 2(b_ 1, \dots , b_ n)} =\frac { \varphi _ 1(a_ 1, \dots , a_ n)} { \varphi _ 2(a_ 1, \dots , a_ n)} =c
\end { aligned}
\]
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\section { Determinanten}
\begin { defin}
2022-04-28 10:33:22 +02:00
Sei $ B = ( a _ 1 , \dots , a _ n ) $ Basis des \K -Vektorraums V.
Sei $ \varphi $ nicht ausgeartete n-Linearform und $ \alpha \in \homkv $ .
2022-04-27 16:18:26 +02:00
Dann ist die \underline { Determinante von $ \alpha $ } definiert durch \[
2022-04-28 10:33:22 +02:00
\det (\alpha ):=\det { } _ \K (\alpha )
2022-04-27 16:18:26 +02:00
:=\frac { \varphi (\alpha (a_ 1), \dots , \alpha (a_ n))} { \varphi (a_ 1, \dots , a_ n)}
\]
2022-03-30 20:19:11 +02:00
\end { defin}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.3.2}
2022-04-12 12:48:05 +02:00
$ \det ( \alpha ) $ ist unabhängig von der Wahl der Basis B und der der Form $ \varphi $ .
\begin { proof}
\begin { itemize}
\item [1. Fall] $ \alpha $ nicht bijektiv\\ $ \implies \alpha ( a _ 1 ) , \dots , \alpha ( a _ n ) \text { linear unabhängig } \implies \det ( \alpha ) = 0 $
\item [2. Fall] $ \alpha $ bijektiv. Sei $ B = ( a _ 1 , \dots , a _ n ) $ .
Dann ist auch $ \alpha ( a _ 1 ) , \dots , \alpha ( a _ n ) $ Basis und,
da $ \varphi $ nicht ausgeartet,
\[ \varphi ( \alpha ( a _ 1 ) , \dots , \alpha ( a _ n ) ) \neq 0 \]
Sei $ \varphi _ \alpha ( b _ 1 , \dots , b _ n ) : = \varphi ( \alpha ( b _ 1 ) , \dots , \alpha ( b _ n ) ) $ .
2022-04-28 10:33:22 +02:00
Dann ist $ \varphi _ \alpha $ alternierend und nicht ausgeartet. Wegen Satz \ref { theo:1.2.6} folgt, dass $ c \in \K \setminus \{ 0 \} $ existiert mit
2022-04-12 12:48:05 +02:00
\begin { equation} \label { eq:constantphi}
\varphi _ \alpha =c\cdot \varphi
\end { equation}
2022-04-27 12:36:04 +02:00
und (durch Einsetzen von $ a _ 1 , \dots , a _ n $ ), dass $ c = \det ( \alpha ) $ .
2022-04-27 16:18:26 +02:00
Da \ref { eq:constantphi} unabhängig von B ist also $ \det ( \alpha ) $ unabhängig von B.
2022-04-12 12:48:05 +02:00
2022-04-27 12:36:04 +02:00
Sei nun $ \psi $ eine zweite alternierende, nicht ausgeartete n-Form und
2022-04-27 16:18:26 +02:00
$ \psi _ \alpha ( b _ 1 , \dots , b _ n ) : = \psi ( \alpha ( b _ 1 ) , \dots , \alpha ( b _ n ) ) $ .
Dann ist $ \psi _ \alpha $ alternierend und nicht ausgeartet. Nach Satz \ref { theo:1.2.6}
2022-04-28 10:33:22 +02:00
gibt es $ d \in \K \setminus \{ 0 \} \text { mit } d = \frac \psi \varphi $ .
2022-04-12 12:48:05 +02:00
Also gilt:
\[
\det (\alpha )=\frac { \varphi _ \alpha (a_ 1, \dots , a_ n)} { \varphi (a_ 1, \dots , a_ n)} =\frac { d\varphi _ \alpha (a_ 1, \dots , a_ n)} { d\varphi (a_ 1, \dots , a_ n)} =\frac { \psi _ \alpha (a_ 1, \dots , a_ n)} { \psi (a_ 1, \dots , a_ n)}
\]
also ist $ \det ( \alpha ) $ auch von der n-Form unabhängig.
\end { itemize}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
2022-03-30 21:00:40 +02:00
\begin { korollar} \label { theo:1.3.3}
2022-04-28 10:33:22 +02:00
Sei V ein n-dimensionaler \K -Vektorraum. Dann gilt
2022-04-12 12:48:05 +02:00
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item $ \alpha \in \homkv \text { bijektiv } \iff \det ( \alpha ) \neq 0 $
\item $ \alpha , \beta \in \homkv \implies \det ( \alpha , \beta ) = \det ( \alpha ) \det ( \beta ) $
2022-04-12 12:48:05 +02:00
\item $ \det ( \id ) = 1 $
2022-04-28 10:33:22 +02:00
\item Ist $ \alpha \in \homkv $ invertierbar, so gilt $ \det ( \alpha ^ { - 1 } ) = \det ( \alpha ) ^ { - 1 } $ .
2022-04-12 12:48:05 +02:00
\end { enumerate}
\begin { proof}
Sei $ B = ( a _ 1 , \dots , a _ n ) $ Basis und $ \varphi $ n-Form mit \[
\det (\alpha ) = \frac { \varphi (\alpha (a_ 1), \dots , \alpha (a_ n))} { \varphi (a_ 1, \dots , a_ n)} \text { [unabhängig von $ B $ und $ \varphi $ nach Satz \ref { theo:1.3.2} ]}
\]
\begin { enumerate} [label=\alph * )]
\item $ \alpha $ bijektiv $ \iff \alpha ( a _ 1 ) , \dots , \alpha ( a _ n ) \text { linear unabhängig } $ \\
$ \underbrace { \iff } _ { \text { Lemma \ref { theo: 1 . 2 . 4 } } }
\varphi (\alpha (a_ 1), \dots , \alpha (a_ n))\neq 0\iff \det (\alpha )\neq 0$
\item 2 Fälle:\begin { enumerate} [label=\arabic . Fall]
\item [1. Fall:] $ \alpha $ oder $ \beta $ ist nicht bijektiv: o.B.d.A $ \alpha $ nicht bijektiv.\\
$ \implies \det ( \alpha ) = 0 \implies \det ( \alpha ) \det ( \alpha ) = 0 $ \\
Weiters folgt, dass $ \alpha \beta $ nicht bijektiv, also $ \det ( \alpha \beta ) = 0 $ .
\item [2. Fall:] $ \alpha , \beta $ bijektiv. Dann ist auch $ ( \beta ( a _ 1 ) , \dots , \beta ( a _ n ) ) $ Basis und
\[
\begin { aligned}
\det (\alpha \beta ) & = \frac { \varphi (\alpha (\beta (a_ 1)), \dots , \alpha (\beta (a_ n)))} { \varphi (a_ 1, \dots , a_ n)} \\
& =\frac { \varphi (\alpha (\beta (a_ 1)), \dots , \alpha (\beta (a_ n)))} { \varphi (\beta (a_ 1), \dots , \beta (a_ n))} \cdot \cdots \\
& \cdots \frac { \varphi (\beta (a_ 1), \dots , \beta (a_ n))} { \varphi (a_ 1, \dots , a_ n)} \underbrace { =} _ { \text { Satz \ref { theo:1.3.2} } } \det (\alpha )\det (\beta )
\end { aligned}
\]
\end { enumerate}
\item $ \det ( \id ) = \frac { \varphi ( a _ 1 , \dots , a _ n ) } { \varphi ( a _ 1 , \dots , a _ n ) } = 1 $
\item $ 1 \underbrace { = } _ { \text { c ) } } \det ( \id ) = \det ( \alpha \alpha ^ { - 1 } ) \underbrace { = } _ { \text { b ) } } \det ( \alpha ) \det ( \alpha ^ { - 1 } ) $
\end { enumerate}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { korollar}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.3.4}
2022-04-28 10:33:22 +02:00
Sei $ \alpha \in \homkv , B = ( b _ 1 , \dots , b _ n ) $ Basis und $ A = ( a _ { ij } ) = { } _ B M ( \alpha ) _ B \in \K ^ { n \times n } $ . Dann gilt
2022-04-12 12:48:05 +02:00
\[ \det ( \alpha ) = \sum _ { \pi \in S _ n } \sgn ( \pi ) a _ { 1 \pi ( 1 ) } \cdots a _ { n \pi ( n ) } \]
\begin { proof}
Es gilt $ \alpha ( b _ i ) = \sum \limits _ { j = 1 } ^ na _ { ij } b _ j \text { für } i = 1 , \dots , n $ .
Nach Satz \ref { theo:1.2.5} (a) gilt
\[
\varphi (\alpha (b_ 1), \dots , \alpha (b_ n)) = \varphi (b_ 1, \dots , b_ n)\cdot \sum _ { \pi \in S_ n} \sgn (\pi )a_ { 1\pi (1)} \cdots a_ { n\pi (n)}
\]
und daraus folgt die Behauptung direkt.
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\begin { defin}
2022-04-28 10:33:22 +02:00
Für $ A = ( a _ { ij } ) \in \K ^ { n \times n } $ definieren wir die \underline { Determinante von A} als
2022-04-12 12:48:05 +02:00
\[
2022-04-28 10:33:22 +02:00
\det (A)=\sum _ { \pi \in S_ n} \sgn (\pi )a_ { 1\pi (1)} \cdots a_ { n\pi (n)} \in \K
2022-04-12 12:48:05 +02:00
\]
2022-03-30 20:19:11 +02:00
\end { defin}
\subsubsection { Bemerkung}
Schreibweise für $ A = ( a _ { ij } ) $ :
2022-04-04 22:25:02 +02:00
\[
2022-04-12 12:48:05 +02:00
\det (A)=\begin { vmatrix}
a_ { 11} & \dots & a_ { 1n} \\
\vdots & \ddots & \vdots \\
a_ { n1} & \dots & a_ { nn}
\end { vmatrix}
2022-04-04 22:25:02 +02:00
\]
2022-03-30 20:19:11 +02:00
\section { Rechenregeln}
2022-03-30 21:00:40 +02:00
\begin { satz} \label { theo:1.4.1}
2022-04-28 10:33:22 +02:00
Sei $ A = ( a _ 1 , \dots , a _ n ) \in \K ^ { n \times n } $ . Dann gilt
2022-04-12 12:48:05 +02:00
\begin { enumerate} [label=\alph * )]
\item $ \det ( A ) = \det ( A ^ T ) $
\item $ \forall i, j \in [ n ] : i<n: \det ( ( a _ 1 , \dots , \underbrace { a _ j } _ { i } , \dots , \underbrace { a _ i } _ { j } , \dots , a _ n ) ) = \det ( A ) $
2022-04-28 10:33:22 +02:00
\item $ \forall i \in [ n ] , \lambda _ 1 , \dots , \lambda _ n \in \K : \det ( ( a _ 1 , \dots , a _ i + \sum \limits _ { \substack { j = 1 \\ j \neq i } } ^ n \lambda _ ja _ j, \dots , a _ n ) ) = \det ( A ) $
\item $ \forall i \in [ n ] , \lambda \in \K : \det ( ( a _ 1 , \dots , \lambda a _ i, \dots , a _ n ) ) = \det ( A ) $
2022-04-12 12:48:05 +02:00
\item $ \exists i, j \in [ n ] : i \neq j \land a _ i = a _ j \implies \det ( A ) = 0 $
2022-04-28 10:33:22 +02:00
\item $ \forall \lambda \in \K : \det ( \lambda A ) = \lambda ^ n \det ( A ) $
2022-04-12 12:48:05 +02:00
\item $ A $ invertierbar $ \implies \det ( A ^ { - 1 } ) = \det ( A ) ^ { - 1 } $
2022-04-28 10:33:22 +02:00
\item $ \forall B \in \K ^ { n \times n } : \det ( AB ) = \det ( A ) \det ( B ) $
2022-04-12 12:48:05 +02:00
\item $ \det ( I _ n ) = 1 $
\end { enumerate}
\begin { proof}
Nur a) explizit:
\begin { enumerate} [label=\alph * )]
\item \begin { equation*} \begin { aligned}
\det (A^ T) & = \sum _ { \pi \in S_ n} \sgn (\pi )a_ { \pi (1)1} \cdots a_ { \pi (n)n} \\
& =\sum _ { \pi \in S_ n} \sgn (\pi )a_ { 1\pi ^ { -1} (1)} \cdots a_ { n\pi ^ { -1} (n)} \\
& \underbrace { =} _ { \substack { \sgn (\pi ^ { -1} )=\sgn (\pi ) \\ \pi ^ { -1} \mapsto \pi } } \sum _ { \pi \in S_ n} \sgn (\pi )a_ { 1\pi (1)} \cdots a_ { n\pi (n)}
\end { aligned} \end { equation*}
2022-04-28 10:33:22 +02:00
\item [b) - i)] folgt daraus, dass für \[ \alpha : \begin { cases } \K ^ n \to \K ^ n \\ x \mapsto A \cdot x \end { cases } :
2022-04-12 12:48:05 +02:00
\det (A)=\dfrac { a} { b} \text { (Satz \ref { theo:1.3.4} )} \] und, dass $ \varphi $ alternierende n-Form ist, bzw. Korollar \ref { theo:1.3.3}
\end { enumerate}
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\begin { satz}
2022-04-28 10:33:22 +02:00
Seien $ A, B \in \K ^ { n \times n } $ ähnlich,
das heißt $ \exists P \in \K ^ { n \times n } $ invertierbar mit \\
2022-04-12 12:48:05 +02:00
$ B = P ^ { - 1 } \cdot A \cdot P $ . Dann gilt
\[ \det ( A ) = \det ( B ) \]
Weiters ist A genau dann invertierbar wenn $ \det ( A ) \neq 0 $ .
\begin { proof}
\[ \det ( B ) = \det ( P ) \underbrace { \det ( P ^ { - 1 } ) } _ { = \det ( P ) ^ { - 1 } } \det ( A ) = \det ( A ) \]
2022-04-28 10:33:22 +02:00
Rest folgt, da $ \det ( A ) = \det ( \alpha ) $ mit $ \alpha : \begin { cases } \K ^ n \to \K ^ n \\ x \mapsto A \cdot x
2022-04-12 12:48:05 +02:00
\end { cases} $ .
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\subsubsection { Berechnungsverfahren}
2022-04-03 18:10:13 +02:00
Gaußalgorithmus führt 1) Zeilenvertauschungen und 2) Additionen von\\
Vielfachen einer Zeile zu einer anderen durch. Raus kommt eine obere Dreiecksmatrix.
2022-03-30 21:00:40 +02:00
\begin { equation} \label { eq:dreiecksmatrix}
2022-04-12 12:48:05 +02:00
B=\begin { pmatrix}
b_ { 11} & \dots & \dots & b_ { 1n} \\
0 & b_ { 22} & \dots & b_ { 2n} \\
\vdots & & \ddots & \vdots \\
0 & \dots & \dots & b_ { nn}
\end { pmatrix}
2022-03-30 20:19:11 +02:00
\end { equation}
Operationen 2) ändern die Determinante nicht, Operationen 1) ändern das Vorzeichen.
\begin { satz}
2022-04-28 10:33:22 +02:00
Sei $ A \in \K ^ { n \times n } $ und $ B $ wie \ref { eq:dreiecksmatrix} das Resultat des Gaußalgorithmus auf $ A $ angewendet mit $ k $ Zeilenvertauschungen. Dann gilt
2022-04-12 12:48:05 +02:00
\[
\det (A)=(-1)^ kb_ { 11} \cdot \dots \cdot b_ { nn}
\]
\begin { proof}
Für Matrizen der Form \ref { eq:dreiecksmatrix} ist die Determinante das Produkt der Diagonalelemente. Rest folgt aus der Definition des Gaußalgorithmus, sowie Satz \ref { theo:1.4.1} .
\end { proof}
2022-03-30 20:19:11 +02:00
\end { satz}
\subsubsection { Regel von Sarrus}
2022-03-30 22:06:16 +02:00
Sei $ A = \begin { pmatrix }
2022-04-12 12:48:05 +02:00
a_ { 11} & a_ { 12} & a_ { 13} \\
a_ { 21} & a_ { 22} & a_ { 23} \\
a_ { 31} & a_ { 32} & a_ { 33}
\end { pmatrix} \in \K ^ { 3\times 3} $
2022-04-04 22:25:02 +02:00
\[ \begin { array } { ccccccccc }
2022-04-12 12:48:05 +02:00
a_ { 11} & & a_ { 12} & & a_ { 13} & & a_ { 11} & & a_ { 12} \\
& \color { ForestGreen} \diagdown & & \color { ForestGreen} \diagdown \color { red} \mathllap \diagup & & \color { ForestGreen} \diagdown \color { red} \mathllap \diagup & & \color { red} \diagup \\
a_ { 21} & & a_ { 22} & & a_ { 23} & & a_ { 21} & & a_ { 22} \\
& \color { red} \diagup & & \color { ForestGreen} \diagdown \color { red} \mathllap \diagup & & \color { ForestGreen} \diagdown \color { red} \mathllap \diagup & & \color { ForestGreen} \diagdown \\
a_ { 31} & & a_ { 32} & & a_ { 33} & & a_ { 31} & & a_ { 32}
\end { array} \color { ForestGreen} + + + \color { red} - - -\]
2022-03-30 22:06:16 +02:00
$ A = \begin { pmatrix } a _ { 11 } & a _ { 12 } \\ a _ { 21 } & a _ { 22 } \end { pmatrix } \in \K ^ { 2 \times 2 } \implies \det ( A ) = a _ { 11 } a _ { 22 } - a _ { 12 } a _ { 21 } $ \\
$ n> 3 \to $ Gaußalgorithmus
2022-03-30 20:19:11 +02:00
\begin { defin}
2022-04-28 10:33:22 +02:00
Sei $ A \in \K ^ { n \times n } $ und $ i, j \in [ n ] $ . Sei $ M _ { ij } \in \K ^ { n \times n } $ die Matrix, welche durch Ersetzung der j-ten Spalte durch den i-ten Einheitsvektor $ e _ j $ entsteht.\\
2022-04-12 12:48:05 +02:00
$ A _ { ij } : = \det ( M _ { ij } ) $ heißt \underline { Kofaktor} (zum Indexpaar $ ( i, j ) $ ).
\begin { equation*}
\bordermatrix {
& & & & j \cr
& a_ { 11} & \dots & a_ { 1i-1} & 0& a_ { 1i+1} & \dots & a_ { 1n} \cr
& \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \cr
i& a_ { ji} & \dots & a_ { ji-1} & 1& a_ { ji+1} & \dots & a_ { jn} \cr
& \vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \cr
& a_ { n1} & \dots & a_ { ni-1} & 0& a_ { ni+1} & \dots & a_ { nn}
}
= M_ { ij} =(a_ { \_ 1} , \dots , \underbrace { e_ i} _ { j} , \dots , a_ { \_ n} )
\end { equation*}
\end { defin}
\subsubsection { Bemerkung}
Es gilt
\begin { equation} \label { crazymatrix}
A_ { ij} =\begin { vmatrix}
a_ { 11} & \dots & a_ { 1i-1} & 0 & a_ { 1i+1} & \dots & a_ { 1n} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_ { ji} & \dots & a_ { ji-1} & 1 & a_ { ji+1} & \dots & a_ { jn} \\
\vdots & \ddots & \vdots & \vdots & \vdots & \ddots & \vdots \\
a_ { n1} & \dots & a_ { ni-1} & 0 & a_ { ni+1} & \dots & a_ { nn}
\end { vmatrix}
\end { equation}
da obige Matrix aus $ M _ { ij } $ durch Spaltenadditionen hervorgeht.
\begin { lemma}
2022-04-28 10:33:22 +02:00
Sei $ \tilde { A _ { ij } } \in \K ^ { ( n - 1 ) \times ( n - 1 ) } $ die Matrix, welche aus A durch Streichung der i-ten Spalte und j-ten Zeile hervorgeht und $ D _ { ij } : = \det ( \tilde { A _ { ij } } ) $ . Dann gilt \[ A _ { ij } = ( - 1 ) ^ { i + j } D _ { ij } \]
2022-04-12 12:48:05 +02:00
\begin { proof}
Transformiere durch ($ i - 1 $ ) Spaltenvertauschungen und ($ j - 1 $ ) Zeilenvertauschungen die Matrix \ref { crazymatrix} auf
\[
B_ { ij} = \begin { pmatrix}
1 & 0 & \dots & 0 \\
0 & & & \\
\vdots & & \tilde { A_ { ij} } & \\
0 & & &
\end { pmatrix}
\]
Es gilt $ \lvert B _ { ij } \rvert = D _ { ij } $ und $ \lvert B _ { ij } \rvert = ( - 1 ) ^ { ( i - 1 ) + j ( - 1 ) } A _ { ij } $ woraus die Behauptung folgt.
\end { proof}
\end { lemma}
\begin { satz} [Entwicklungssatz von Laplace]
2022-04-28 10:33:22 +02:00
Sei $ A \in \K ^ { n \times n } $ und $ i, j \in [ n ] $ . Dann gilt
2022-04-12 12:48:05 +02:00
\begin { enumerate} [label=\alph * )]
\item $ \det ( A ) = \sum \limits _ { l = 1 } ^ na _ { il } A _ { il } = \sum \limits _ { l = 1 } ^ n ( - 1 ) ^ { l + i } a _ { il } D _ { il } $
\item $ \det ( A ) = \sum \limits _ { l = 1 } ^ na _ { lj } A _ { lj } = \sum \limits _ { l = 1 } ^ n ( - 1 ) ^ { l + j } a _ { lj } D _ { lj } $
\end { enumerate}
\begin { proof}
b) \[ \begin { aligned }
\det (A) & = \det (a_ { \_ 1} , \dots , a_ { \_ n} )= \\
& =\det (a_ { \_ 1} , \dots , \underbrace { \sum _ { l=1} ^ na_ { lj} e_ l} _ { =a_ { \_ j} } , \dots , a_ { \_ n} )= \\
& =\sum _ { l=1} ^ n a_ { lj} \det (a_ { \_ 1} , \dots , \underbrace { e_ l} _ { j} , \dots , a_ { \_ n} ) = \\
& = \sum _ { l=1} ^ n a_ { lj} A_ { lj}
\end { aligned}
\]
a) analog (angewendet auf $ A ^ T $ ).
\end { proof}
2022-04-12 12:36:21 +02:00
\end { satz}
2022-04-04 20:02:02 +02:00
2022-04-12 12:36:21 +02:00
\begin { satz} [Cramer'sche Regel]
2022-04-12 12:48:05 +02:00
Sei $ \adj ( A ) = ( A _ { ji } ) _ { i, j \in [ n ] } $ . Dann gilt
\[ A \cdot \adj ( A ) = \det ( A ) \cdot I _ n \]
\begin { proof}
Sei $ B = A \cdot \adj ( A ) \implies $
\[ \begin { aligned }
b_ { ij} & = \sum _ { k=1} ^ n a_ { ik} A_ { jk} \\
& = \sum _ { k=1} ^ n a_ { ik} \det (a_ { \_ 1} , \dots , \underbrace { e_ j} _ { k} , \dots , a_ { \_ n} ) \\
& = \sum _ { k=1} ^ n a_ { ik}
\bordermatrix {
& & & k & & \\
& a_ { 11} & \dots & a_ { 1k} & \dots & a_ { 1n} \\
& \vdots & \ddots & \vdots & \ddots & \vdots \\
j & 0 & \dots & 1 & \dots & 0 \\
& \vdots & \ddots & \vdots & \ddots & \vdots \\
& a_ { n1} & \dots & a_ { nk} & \dots & a_ { nn} \\
} \\
2022-04-27 12:36:04 +02:00
& = \det \left (\bordermatrix { & \\
2022-04-27 16:18:26 +02:00
& a_ { 1\_ } \\ & \vdots \\ j \to & a_ { i\_ } \\ & \vdots \\ & a_ { n\_ } } \right ) \\
2022-04-12 12:48:05 +02:00
& = \begin { cases} 0& i\neq j \\ \det (A) & i=j\end { cases}
\end { aligned} \]
\end { proof}
2022-04-12 12:36:21 +02:00
\end { satz}
2022-04-04 20:02:02 +02:00
2022-04-12 12:36:21 +02:00
\begin { folgerung}
2022-04-28 10:33:22 +02:00
Sei $ A \in \K ^ { n \times n } $ invertierbar. Sei $ x \in \K ^ n $ die eindeutige Lösung des linearen Gleichunssystems $ Ax = b $ . Dann gilt
2022-04-12 12:48:05 +02:00
\[
x_ i= \det (A)^ { -1} \det (a_ { \_ 1} , \dots , \underbrace { b} _ { i} , \dots , a_ { \_ n} )
\]
\begin { proof}
\[ \begin { aligned }
& A^ { -1} =\frac { 1} { \det (A)} (A_ { ji} ) \\
& \implies \det (A)x_ i=\sum _ { j=1} ^ n A_ { ji} b_ j & = \sum _ { j=1} ^ n b_ j \det (a_ { \_ 1} , \dots , \underbrace { e_ j} _ { i} , \dots , a_ { \_ n} ) \\
& & =\det (a_ { \_ 1} , \dots , \underbrace { b} _ { i} , \dots , a_ { \_ n} )
\end { aligned} \]
\end { proof}
2022-04-12 12:36:21 +02:00
\end { folgerung}
2022-04-04 20:02:02 +02:00
2022-04-12 12:36:21 +02:00
\subsubsection { Blockmatrizen}
2022-04-04 20:02:02 +02:00
2022-04-12 12:36:21 +02:00
\begin { defin}
2022-04-28 10:33:22 +02:00
$ A \in \K ^ { n \times n } $ heißt \underline { obere Blockmatrix} wenn $ \exists p \in \{ 1 , \dots , n - 1 \} $ mit $ a _ { ij } = 0 $ für $ p + 1 \le i \le n, 1 \le j \le p $ , d.h.
2022-04-12 12:48:05 +02:00
\begin { equation}
\label { blockmatrix}
A=\bordermatrix {
\ & \overbrace { } ^ { p} & \overbrace { } ^ { n-p} \cr
p\{ \ & P & D \cr % } TODO geschwungene Klammern besser machen
n-p\{ \ & 0& Q} % }
\end { equation}
Analog sind \underline { untere Blockmatrizen} definiert.
\end { defin}
\begin { satz} \label { theo:1.4.10}
Sei $ A $ obere Blockmatrix wie in \ref { blockmatrix} . Dann gilt $ \det ( A ) = \det ( P ) \det ( Q ) $
\begin { proof}
Sei $ A = \begin { pmatrix } P & D \\ 0 & Q \end { pmatrix } $ .\\
2022-04-27 12:36:04 +02:00
Wende elementare Zeilenumformungen der ersten $ p $ Zeilen an, sodass $ P $ obere Dreiecksform hat
2022-04-27 16:18:26 +02:00
(mit $ s $ Zeilenvertauschungen) und elementare Zeilenumformungen der letzten $ n - p $ Zeilen sodass
$ Q $ obere Dreiecksform hat (mit $ t $ Zeilenvertauschungen).
Bezeichne das Ergebnis mit $ A' = \begin { pmatrix } P' & D \\ 0 & Q' \end { pmatrix } $ , wobei $ P', Q' $ obere Dreiecksform haben.\\
2022-04-27 12:36:04 +02:00
Es folgt, dass $ A', P', Q' $ obere Dreiecksform hat. Da die Determinante oberer Dreiecksmatrizen
2022-04-27 16:18:26 +02:00
das Produkt der Diagonalelemente ist, gilt $ \det ( A' ) = \det ( P' ) \det ( Q' ) $ .\\
2022-04-27 12:36:04 +02:00
Weiters gilt $ \det ( A' ) = ( - 1 ) ^ { s + t } \det ( A ) $ (insgesamt $ s + t $ Vertauschungen)
2022-04-27 16:18:26 +02:00
und $ \det ( P' ) = ( - 1 ) ^ s \det ( P ) , \det ( Q' ) = ( - 1 ) ^ t \det ( Q ) $ . Daraus folgt die Behauptung.
2022-04-12 12:48:05 +02:00
\end { proof}
\end { satz}
\chapter { Eigenwerte und Eigenvektoren}
\section { Diagonalisierbarkeit}
\begin { defin}
2022-04-28 10:33:22 +02:00
$ D \in \K ^ { n \times n } $ heißt \underline { Diagonalmatrix} wenn $ \forall i \neq j: d _ { ij } = 0 $ .
2022-04-12 12:48:05 +02:00
Wir schreiben auch
\[
\diag (\lambda _ 1, \dots , \lambda _ n):=\begin { pmatrix}
\lambda _ 1 & 0 & \dots & 0 \\
0 & \lambda _ 2 & \dots & 0 \\
\vdots & \vdots & \ddots & \vdots \\
0 & 0 & \dots & \lambda _ n
\end { pmatrix}
\]
\end { defin}
\subsubsection { Bemerkung}
\begin { itemize}
2022-04-28 10:33:22 +02:00
\item $ A \in \K ^ { n \times m } \implies \diag ( \lambda _ 1 , \dots , \lambda _ n ) A = \begin { pmatrix }
2022-04-12 12:48:05 +02:00
\lambda _ 1 a_ { 1\_ } \\
\vdots \\
\lambda _ n a_ { n\_ } \end { pmatrix} $
\item $ \diag ( \lambda _ 1 , \dots , \lambda _ n ) ^ k = \diag ( \lambda _ 1 ^ k, \dots , \lambda _ n ^ k ) $
\end { itemize}
\begin { defin}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item $ \alpha \in \homkv , \dim ( V ) < \infty $ heißt \underline { diagonalisierbar} (bzgl. $ B $ )
2022-04-12 12:48:05 +02:00
wenn eine geordnete Basis $ B $ existiert mit $ { } _ B M ( \alpha ) _ B $ Diagonalmatrix
2022-04-28 10:33:22 +02:00
\item $ A \in \K ^ { n \times n } $ heißt diagonalisierbar wenn eine invertierbare Matrix $ P \in \K ^ { n \times n } $ existiert mit $ P ^ { - 1 } AP $ Diagonalmatrix.
2022-04-12 12:48:05 +02:00
\end { enumerate}
\end { defin}
\begin { lemma}
Sei $ V $ $ \K $ -Vektorraum mit $ \dim ( V ) = n< \infty $ .
2022-04-28 10:33:22 +02:00
Dann gilt für $ \alpha \in \homkv $ und $ C $ Basis:
2022-04-12 12:48:05 +02:00
\[ \alpha \text { diagonalisierbar } \iff { } _ C M ( \alpha ) _ C \text { diagonalisierbar } \]
\begin { proof}
\begin { itemize}
\item [$\implies$] Sei $ \alpha $ diagonalisierbar und $ B $ eine Basis mit $ _ B M ( \alpha ) _ B $ Diagonalmatrix. Dann gilt \[
2022-04-27 16:18:26 +02:00
\begin { aligned} { } _ B M(\alpha )_ B & = { } _ B M(\id )_ C \cdot { } _ C M(\alpha )_ C \cdot { } _ C M(\id )_ B \\
2022-04-22 10:56:47 +02:00
& = { } _ C M(\id )_ { B^ { -1} } \cdot { } _ C M(\alpha )_ C \cdot { } _ C M(\id )_ B\end { aligned} \]
2022-04-12 12:48:05 +02:00
Also ist $ { } _ C M ( \alpha ) _ C $ diagonalisierbar.
2022-04-27 12:36:04 +02:00
\item [$\impliedby$] Sei $ { } _ C M ( \alpha ) _ C $ diagonalisierbar und $ P $ invertierbar mit $ P ^ { - 1 } \cdot { } _ C M ( \alpha ) _ C \cdot P $ Diagonalmatrix.
2022-04-27 16:18:26 +02:00
Sei $ B $ Basis mit $ P = { } _ C M ( \id ) _ B $ .
Dann gilt $ { } _ B M ( \alpha ) _ B $ ist Diagonalmatrix.
2022-04-12 12:48:05 +02:00
\end { itemize}
\end { proof}
\end { lemma}
\begin { lemma} \label { theo:2.1.4}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item $ \alpha \in \homkv $ ist diagonalisierbar genau wenn es eine Basis $ B = ( b _ 1 , \dots , b _ n ) $ und $ \lambda _ 1 , \dots , \lambda _ n \in \K $ gibt mit $ \forall i = 1 , \dots , n: \alpha ( b _ i ) = \lambda _ i b _ i $ .
2022-04-12 12:48:05 +02:00
\item $ A \in \K ^ { n \times n } $ ist diagonalisierbar genau wenn es eine geordnete Basis $ B = ( b _ 1 , \dots , b _ n ) $ von $ \K ^ n $ gibt mit $ \forall i = 1 , \dots , n: A b _ i = \lambda _ i b _ i $ .
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item die Bedingung ist äquivalent zu $ { } _ B M ( \alpha ) _ B $ diagonalisierbar.
\item Spezialfall von a).
\end { enumerate}
\end { proof}
\end { lemma}
\section { Eigenwerte und Eigenvektoren}
\begin { defin} \label { theo:2.2.1}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item Sei $ \alpha \in \homkv $ . $ \lambda \in \K $ heißt \underline { Eigenwert} von $ \alpha $ wenn es einen Vektor $ v \in V \setminus \{ 0 \} $ gibt mit $ \alpha ( v ) = \lambda v $ . $ v $ heißt \underline { Eigenvektor} zu $ \lambda $ .\\
2022-04-12 12:48:05 +02:00
Die Menge aller Eigenwerte von $ \alpha $ heißt \underline { Spektrum} von $ \alpha ; \spec ( \alpha ) $
\item Sei $ A \in \K ^ { n \times n } $ . $ \lambda \in \K $ heißt \underline { Eigenwert} von $ A $ wenn es $ v \in \K ^ n \setminus \{ 0 \} $ gibt mit $ A v = \lambda v $ . $ v $ heißt \underline { Eigenvektor} zu $ \lambda $ .\\
Die Menge aller Eigenwerte von $ A $ heißt \underline { Spektrum} von $ A; \spec ( A ) $
\end { enumerate}
\end { defin}
\begin { lemma} \label { theo:2.2.2}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item $ \alpha \in \homkv $ diagonalisierbar $ \iff \exists $ Basis aus Eigenvektoren.
2022-04-12 12:48:05 +02:00
\item $ A \in \K ^ { n \times n } $ diagonalisierbar $ \iff \exists $ Basis aus Eigenvektoren.
\end { enumerate}
\begin { proof}
Folgt direkt aus Lemma \ref { theo:2.1.4} und Definition \ref { theo:2.2.1}
\end { proof}
\end { lemma}
\begin { defin}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item Sei $ \alpha \in \homkv $ und $ \lambda \in \spec ( \alpha ) $ . Dann heißt $ \eig _ \alpha ( \lambda ) : = \{ v \in V: \alpha ( v ) = \lambda v \} $ der zugehörige \underline { Eigenraum} .
2022-04-12 12:48:05 +02:00
\item Sei $ A \in \K ^ { n \times n } $ und $ \lambda \in \spec ( A ) $ . Dann heißt $ \eig _ A ( \lambda ) : = \{ v \in \K ^ n: A v = \lambda v \} $ der zugehörige \underline { Eigenraum} .
\end { enumerate}
\end { defin}
\begin { lemma}
2022-04-28 10:33:22 +02:00
Sei $ \alpha \in \homkv / A \in \K ^ { n \times n } $ und $ \lambda \in \spec ( \alpha ) / \lambda \in \spec ( A ) $ .\\
2022-04-12 12:48:05 +02:00
Dann ist $ \eig _ \alpha ( \lambda ) / \eig _ A ( \lambda ) $ ein Unterraum von $ V / \K $ .
\begin { proof}
2022-04-28 10:33:22 +02:00
Nur für $ \alpha \in \homkv $
2022-04-12 12:48:05 +02:00
\begin { itemize}
\item $ 0 = \alpha ( 0 ) = \lambda \cdot 0 \implies 0 \in \eig _ \alpha ( \lambda ) $
\item $ v, w \in \eig _ \alpha ( \lambda ) \implies \alpha ( v + w ) = \alpha ( v ) + \alpha ( w ) = \lambda v + \lambda w = \lambda ( v + w ) \implies v + w \in \eig _ \alpha ( V ) $
2022-04-27 12:36:04 +02:00
\item $ \mu \in \K , v \in \eig _ \alpha ( \lambda ) \implies \alpha ( \mu v ) =
2022-04-27 16:18:26 +02:00
\mu \cdot \alpha (v) = \mu \cdot \lambda \cdot v =
\lambda \cdot (\mu \cdot v) \implies \mu \cdot v \in \eig _ \alpha (\lambda )$
2022-04-12 12:48:05 +02:00
\end { itemize}
\end { proof}
\end { lemma}
\begin { satz}
2022-04-28 10:33:22 +02:00
Sei $ \alpha \in \homkv $ und $ B $ Basis. Dann gilt
2022-04-12 12:48:05 +02:00
\[ \begin { aligned }
& \spec (\alpha ) = \spec ({ } _ B M(\alpha )_ B) \\
& { } _ B\Phi (\eig _ \alpha (\lambda )) = \eig _ { { } _ B M(\alpha )_ B} (\lambda )
\end { aligned} \]
\begin { proof}
Sei $ \lambda \in \spec ( \alpha ) $ und $ v \in \eig _ \alpha ( \lambda ) $ . Dann gilt \[
\alpha (v) = \lambda v \iff { } _ B M(\alpha )_ B \cdot { } _ B v = \lambda \cdot { } _ B v
\]
\end { proof}
\end { satz}
\begin { defin}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item Sei $ \alpha \in \homkv , \dim ( V ) < \infty $ und $ B $ Basis. Dann heißt die Funktion \[
2022-04-12 12:48:05 +02:00
\chi _ \alpha :\begin { cases} \K \to \K \\
\lambda \mapsto \det ({ } _ B M(\alpha )_ B - \lambda \cdot I_ n)\end { cases}
\] \underline { charakteristisches Polynom} von $ \alpha $ .
\item Sei $ A \in \K ^ { n \times n } $ . Dann heißt die Funktion \[
\chi _ A:\begin { cases} \K \to \K \\
\lambda \mapsto \det (A - \lambda \cdot I_ n)\end { cases}
\] \underline { charakteristisches Polynom} von $ A $ .
\end { enumerate}
\end { defin}
\subsubsection { Bemerkung}
$ \genfrac { } { } { 0 pt } { 0 } { \chi _ \alpha } { \chi _ A } $ ist Polynom vom Grad
$ \le \genfrac { } { } { 0 pt } { 0 } { \dim ( V ) } { n } $ , da
\[ \begin { aligned }
& \chi _ A(\lambda )=\sum _ { \pi \in S_ n} \tilde { a} _ { 1\pi (1)} ^ { (\lambda )} \cdots \tilde { a} _ { n\pi (n)} ^ { (\lambda )} \text { mit} \\
& \tilde { a} _ { ij} ^ { (\lambda )} = \begin { cases} a_ { ij} & i\neq j \\ a_ { ij} -\lambda & i=j
\end { cases} \dots \text { Polynom von Grad $ 0 $ oder $ 1 $ }
\end { aligned} \]
\begin { lemma} \label { theo:2.2.7}
\leavevmode
\begin { enumerate} [label=\alph * )]
\item $ \chi _ \alpha $ ist unabhängig von der Wahl der Basis.
\item $ \chi _ A = \chi _ B $ wenn $ A, B $ ähnlich (das heißt $ \exists P \in \K ^ { n \times n } : B = P ^ { - 1 } AP $ )
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item Sei C weitere Basis.\\
Dann gilt $ \underbrace { { } _ C M ( \alpha ) _ C } _ { B } = \underbrace { { } _ C M ( \id ) _ B } _ { P ^ { - 1 } } \underbrace { { } _ B M ( \alpha ) _ B } _ { A } \underbrace { { } _ B M ( \id ) _ C } _ { P } $ . \\
Man kann also alles auf b) zurückführen.
\item \[ \begin { aligned }
\chi _ A(\lambda ) & = \det (A-\lambda I) \\
& = \det (P)^ { -1} \det (A - \lambda I) \det (P) \\
& = \det (P^ { -1} ) \det (A - \lambda I) \det (P) \\
& = \det (P^ { -1} (A - \lambda I)P) \\
& = \det (P^ { -1} AP-\lambda I) \\
& = \det (B - \lambda I) \\
& = \chi _ B(\lambda )
\end { aligned} \]
\end { enumerate}
\end { proof}
\end { lemma}
\begin { lemma}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item Sei $ \alpha \in \homkv $ . Dann gilt \[ \spec ( \alpha ) = \{ \lambda \in \K : \chi _ \alpha ( \lambda ) = 0 \} \]
2022-04-12 12:48:05 +02:00
\item Sei $ A \in \K ^ { \nxn } $ . Dann gilt \[ \spec ( A ) = \{ \lambda \in \K : \chi _ A ( \lambda ) = 0 \} \]
\end { enumerate}
\begin { proof}
Nur b)
\[ \begin { aligned }
\lambda \in \spec (A) & \iff \exists v\in V \setminus \{ 0\} : A v = \lambda v \\
& \iff \exists v \in V \setminus \{ 0\} : (A - \lambda I) v = 0 \\
& \iff \ker (A - \lambda I) \neq \{ 0\} \\
& \iff A - \lambda I \text { nicht injektiv} \\
& \iff \det (A - \lambda I) = 0
\end { aligned} \]
\end { proof}
\end { lemma}
\subsubsection { Beispiele}
\begin { alignat*} { 3}
& A = \begin { pmatrix} \bar 3 & \bar 4 \\ \bar 1 & \bar 1 \end { pmatrix} \in \mathbb { Z} _ 5^ { 2\times 2} & & \\
& \chi _ A(\lambda ) = \begin { vmatrix} \bar 3 - \lambda & \bar 4 \\ \bar 1 & \bar 1 - \lambda \end { vmatrix}
& & = (\bar 3 - \lambda )(\bar 1 - \lambda ) - \bar 4 \\
& & & = \bar 3 - \bar 4 \lambda + \lambda ^ 2 - \bar 4 \\
& & & = \bar 4 - \bar 4 \lambda + \lambda ^ 2 = (\bar 2 - \lambda )^ 2 \\
& \implies \spec (A) = \{ 2\} \\
& \eig _ { \bar 2} (A) = ? \\
& v \in \eig _ { \bar 2} (A) \iff \mathrlap { (A - \bar 2 I)v = 0} \\
& \iff \mathrlap { \left (\begin { array} { c c | c}
\bar 3 - \bar 2 & \bar 4 & \bar 0 \\
\bar 1 & \bar 1 - \bar 2 & \bar 0
\end { array} \right )} \\
& \left (\begin { array} { c c | c}
\bar 1 & \bar 4 & \bar 0 \\
\bar 1 & \bar 4 & \bar 0
\end { array} \right ) \\
& \left (\begin { array} { c c | c}
\bar 1 & \bar 4 & \bar 0 \\
\bar 0 & \bar 0 & \bar 0
\end { array} \right ) \\
2022-05-04 14:14:57 +02:00
& \implies \eig _ { \bar 2} (A) = \left \langle \begin { pmatrix} \bar 1 \\ \bar 1\end { pmatrix} \right \rangle \\
2022-04-12 12:48:05 +02:00
& \implies A \mathrlap { \text { nicht diagonalisierbar [Lemma \ref { theo:2.1.4} (b)]} }
\end { alignat*}
\begin { lemma}
2022-04-28 10:33:22 +02:00
Sei $ A \in \C ^ { n \times n } $ mit reellen Einträgen. Dann gilt:
2022-04-12 12:48:05 +02:00
\begin { enumerate} [label=\alph * )]
\item $ \lambda \in \spec ( A ) \implies \overline { \lambda } \in \spec ( A ) $
\item $ v \in \eig _ \lambda ( A ) \implies \overline { v } \in \eig _ { \overline { \lambda } } ( A ) $
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item Klarerweise ist $ \chi _ A ( \lambda ) $ ein Polynom mit reellen Koeffizienten, also $ \chi _ A ( \lambda ) = a _ 0 + a _ 1 \lambda + \cdots + a _ n \lambda ^ n, a _ 0 , \dots , a _ n \in \R $ \\
2022-04-12 12:48:05 +02:00
Sei $ \chi _ A ( \lambda ) = 0 \implies 0 = \overline 0 = a _ 0 + a _ 1 \overline \lambda + \cdots + a _ n \overline { \lambda } ^ n = \chi _ A ( \overline \lambda ) $
\item $ v \in \eig _ \lambda ( A ) \implies A v = \lambda v \implies \overline { A V } = \overline { \lambda v } \implies A \overline { v } = \overline \lambda \overline { v } $
\end { enumerate}
\end { proof}
\end { lemma}
\begin { lemma} \label { theo:2.2.10}
Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig.
\begin { proof}
Seien $ v _ i \in \eig _ { \lambda _ i } ( A ) , i = 1 , \dots , r, \lambda _ i \neq \lambda _ j \text { für } i \neq j $ .
Induktion nach $ r $
\begin { itemize}
\item [$r=1$:] $ v _ 1 $ ist linear unabhängig.
\item [$r-1\mapsto r$:] \begin { equation} \label { eq:2.2.10.1}
\mu _ 1 v_ 1 + \cdots + \mu _ 1 v_ 1 = 0 \end { equation}
\[ \implies A ( \mu _ 1 v _ 1 + \cdots + \mu _ r v _ r ) = 0 \]
\begin { equation} \label { eq:2.2.10.2}
\implies \lambda _ 1\mu _ 1 v_ 1 + \cdots \lambda _ r \mu _ r v_ r = 0
\end { equation}
Weiters folgt durch Multiplikation von \ref { eq:2.2.10.1} mit $ \lambda _ r $ , dass \begin { equation} \label { eq:2.2.10.3}
\lambda _ r \mu _ 1 v_ 1 + \cdots + \lambda _ r \mu _ r v_ r = 0 \end { equation}
\[ \begin { aligned }
\text { \ref { eq:2.2.10.3} } - \text { \ref { eq:2.2.10.2} }
& \implies \underbrace { (\lambda _ r - \lambda _ 1)} { \neq 0} \mu _ 1 v_ 1 + \cdots + \underbrace { (\lambda _ r - \lambda _ { r-1} )} { \neq 0} \mu _ { r-1} v_ { r-1} = 0 \\
& \implies v_ 1, \dots , v_ { r-1} \text { linear abhängig. \Lightning }
\end { aligned} \]
\end { itemize}
\end { proof}
\end { lemma}
\begin { lemma}
2022-04-28 10:33:22 +02:00
Sei $ \alpha \in \homkv , \dim ( V ) = n \text { oder } A \in \K ^ { \nxn } $ mit $ n $ verschiedenen Eigenvektoren. Dann ist $ \alpha / A $ diagonalisierbar.
2022-04-12 12:48:05 +02:00
\begin { proof}
Wegen Lemma \ref { theo:2.2.10} gibt es Basis von Eigenvektoren. Daher ist $ \alpha / A $ diagonalisierbar wegen Lemma \ref { theo:2.2.2} .
\end { proof}
\end { lemma}
\begin { defin}
Sei $ \spec ( A ) = \{ \lambda _ 1 , \dots , \lambda _ r \} $ und $ ( \lambda _ 1 - \lambda ) ^ { k _ 1 } \cdots ( \lambda _ r - \lambda ) ^ { k _ r } p \in \K [ X ] $ mit $ p $ nicht durch Linearfaktoren teilbar (also keine Nullstellen in $ \K $ ).\\
$ k _ i $ heißt \underline { algebraische Vielfachheit} des Eigenwerts $ \lambda _ i $ . Wir schreiben $ k _ i = m _ a ( \lambda _ i ) $ .\\
$ \dim ( \eig _ A ( \lambda _ i ) ) $ heißt \underline { geometrische Vielfachheit} des Eigenwerts $ \lambda _ i $ . Wir schreiben $ \dim ( \eig _ A ( \lambda _ i ) ) = m _ g ( \lambda _ i ) $
\end { defin}
\subsubsection { Beispiel}
\begin { itemize}
2022-04-28 10:33:22 +02:00
\item $ \chi _ A ( \lambda ) = \lambda ^ 4 - 2 \lambda ^ 3 + 2 \lambda ^ 2 - 2 \lambda + 1 \in \R [ X ] $ \\
2022-04-25 15:52:39 +02:00
$ \implies \chi _ A ( \lambda ) = ( 1 - X ) ^ 2 \underbrace { ( 1 + \lambda ^ 2 ) } _ { p ( \lambda ) } $ \\
2022-04-12 12:48:05 +02:00
$ \implies m _ a ( 1 ) = 2 $
2022-04-28 10:33:22 +02:00
\item Für $ \K = \C $ zerfällt jedes Polynom in Linearfaktoren, also ist $ p $ immer konstant.
2022-04-12 12:48:05 +02:00
\end { itemize}
\begin { satz}
Sei $ \mu \in \spec ( A ) / \spec ( \alpha ) $ . Dann gilt \[ 1 \le m _ g ( \mu ) \le m _ a ( \mu ) \]
\begin { proof}
Klarerweise gilt $ 1 \le m _ g ( \mu ) $ da $ \mu $ Eigenwert ist. Sei $ r: = m _ g ( \mu ) $ und $ b _ 1 , \dots , b _ r $ Basis von $ \eig _ \alpha ( \mu ) $ . Sei $ B = ( b _ 1 , \dots , b _ n ) $ Basis. Dann ist\\ $ { } _ B M ( \alpha ) _ B =
\bordermatrix {
& & & & r & & \cr
& \mu & 0 & 0 & 0 & * & \dots & * \cr
& 0 & \mu & 0 & 0 & * & \dots & * \cr
& \vdots & & \ddots & \vdots & \vdots & & \vdots \cr
r & 0 & 0 & 0 & \mu & * & \dots & * \cr
& \vdots & \vdots & \vdots & \vdots & \vdots & & \vdots \cr
& 0 & 0 & 0 & 0 & * & \dots & *
}
$ , also \[ \begin { aligned }
\chi _ \alpha (\lambda ) & = \left \lvert \begin { array} { c | c}
\begin { smallmatrix} \mu - \lambda & & \\ & \ddots & \\ & & \mu - \lambda \end { smallmatrix} & A \\
\hline \\
0 & B
\end { array} \right \rvert \underbrace { =} _ { \text { Satz \ref { theo:1.4.10} } } \det
\begin { pmatrix}
\mu - \lambda & & 0 \\
& \ddots & \\
0 & & \mu - \lambda
2022-04-27 16:18:26 +02:00
\end { pmatrix} \cdot \det (B) \\
& = (\mu - \lambda )^ r \det (B) \\
2022-04-12 12:48:05 +02:00
& \implies r \le m_ a(\mu )
\end { aligned} \]
\end { proof}
\end { satz}
\begin { lemma}
Seien $ A, B $ ähnlich und $ \mu \in \spec ( A ) ( = \spec ( B ) \text { nach Lemma \ref { theo: 2 . 2 . 7 } } ) $ . Dann stimmen die geometrischen Vielfachheiten überein, das heißt $ \dim ( \eig _ \mu ( A ) ) = \dim ( \eig _ \mu ( B ) ) $ .
\begin { proof}
Sei $ B = P ^ { - 1 } A P $ . Dann gilt \[ \begin { aligned }
\eig _ { \mu } (B) & = \ker (B - \mu I) = \ker (B - \mu P^ { -1} P) \\
& = \ker (P^ { -1} (A - \mu I) P) \\
& \underbrace { \implies } _ { \mathclap { \text { Für ähnliche Matrizen stimmen die Dimensionen der Kerne überein} } } \dim (\eig _ \mu (B)) = \dim \eig _ \mu (A)
\end { aligned} \]
\end { proof}
\end { lemma}
\begin { satz}
$ A / \alpha $ diagonalisierbar $ \iff $
\begin { enumerate} [label=\roman * )]
\item $ \chi _ { A / \alpha } $ zerfällt in Linearfaktoren, das heißt
\[ \chi _ { A / \alpha } ( \lambda ) = ( \lambda _ 1 - \lambda ) ^ { k _ 1 } \cdots ( \lambda _ r - \lambda ) ^ { k _ r } , \sum k _ i = n \]
\item algebraische und geometrische Vielfachheiten stimmen überein, das \\
heißt $ m _ a ( \lambda _ i ) = m _ g ( \lambda _ i ) , i = 1 , \dots , r $
\end { enumerate}
\begin { proof}
\begin { itemize}
\item [$\impliedby$:] Aus i), ii) folgt, dass \begin { equation} \label { eq:2.2.15.1}
\sum _ { i=1} ^ r \underbrace { \dim (\eig _ \alpha (\lambda _ i))} _ { =m_ g(\lambda _ i)=:d_ i} = n \end { equation}
Sei $ b _ i ^ 1 , \dots , b _ i ^ { d _ i } $ Basis von $ \eig _ \alpha ( \lambda _ i ) $ . Wir zeigen, dass $ B = \{ b _ i ^ 1 , \dots , b _ i ^ { d _ i } : i = 1 , \dots , r \} $ Basis ist.
\begin { enumerate} [label=\arabic * )]
\item $ \lvert B \rvert = n $ folgt aus \ref { eq:2.2.15.1}
\item Ang. $ \sum \limits _ { i = 1 } ^ r ( \underbrace { \mu _ i ^ 1 b _ i ^ 1 + \cdots + \mu _ i ^ { d _ i } b _ i ^ { d _ i } } _ { v _ i } ) = 0 $ \\
$ \underbrace { \implies } _ { \mathclap { \substack { v _ i \text { Eigenwerte zu } \\ \text { verschiedenen Eigenvektoren } \\ + \text { Lemma \ref { theo: 2 . 2 . 10 } } } } }
v_ i = 0 \forall i=1, \dots , r \underbrace { \implies } _ { \mathclap { \substack { b_ i^ 1, \dots , b_ i^ { d_ i} \\ \text { Basis von } \eig _ \alpha (\lambda _ i)} } } \mu _ i^ 1, \dots , \mu _ i^ { d_ i} = 0 \forall i=1, \dots , r$ \\
$ \implies B $ ist Basis aus Eigenvektoren $ \underbrace { \implies } _ { \mathclap { \text { Lemma \ref { theo: 2 . 2 . 2 } } } } \alpha $ diagonalisierbar.
\end { enumerate}
\item [$\implies$:] Sei $ \alpha $ diagonalisierbar. \[ \begin { aligned }
& \implies \exists \text { Basis } \{ b_ 1, \dots , b_ n\} \text { aus Eigenvektoren} \\
& \implies { } _ B M(\alpha )_ B = \diag (\lambda _ 1, \dots , \lambda _ n) \\
& \implies \chi _ B(\lambda ) = (\lambda _ 1 - \lambda ) \cdots (\lambda _ n - \lambda )
\end { aligned} \]
\end { itemize}
\end { proof}
\end { satz}
\subsubsection { Diagonalisieren}
\begin { enumerate} [label=\arabic * )]
\item Zerlegung in Linearfaktoren
\[ \chi _ A ( \lambda ) = ( \lambda _ 1 - \lambda ) ^ { m _ a ( \lambda _ 1 ) } \cdots ( \lambda _ r - \lambda ) ^ { m _ a ( \lambda _ r ) } \]
\item Bestimme Basis $ B _ i $ der Eigenräume
\[ \eig _ A ( \lambda _ i ) = \ker ( A - \lambda _ i I ) \]
\item Ordne Basis $ B = \bigcup \limits _ { i = 1 } ^ n B _ i $ zu $ B = ( b _ 1 , \dots , b _ n ) $
\item Mit $ S = ( b _ 1 , \dots , b _ n ) $ gilt dann \[
2022-04-27 12:36:04 +02:00
\diag (\underbrace { \lambda _ 1, \dots , \lambda _ n} _ {
2022-04-27 16:18:26 +02:00
\mathclap { \substack { \text { Eigenwerte werden nach} \\ \text { Vielfachheit gezählt!} \\ \lambda _ i \text { ist Eigenwert von } b_ i \text { !} } }
} ) = S^ { -1} A S
2022-04-12 12:48:05 +02:00
\]
\end { enumerate}
\subsubsection { Beispiel}
$ A = \begin { pmatrix }
1 & 2 & 2 \\
2 & -2 & 1 \\
2 & 1 & -2
\end { pmatrix} $
\begin { enumerate} [label=\arabic * )]
\item \[ \begin { aligned }
\chi _ A(\lambda ) = & \begin { vmatrix}
1 -\lambda & 2 & 2 \\
2 & -2 -\lambda & 1 \\
2 & 1 & -2 -\lambda
\end { vmatrix} \\
\underbrace { =} _ { \mathclap { \substack { \text { Entwicklung} \\ \text { nach 1. Zeile} } } }
& (1-\lambda ) \begin { vmatrix} -2 -\lambda & 1 \\ 1 & -2 -\lambda \end { vmatrix}
+ (-2) \begin { vmatrix} 2 & 1 \\ 2 & -2-\lambda \end { vmatrix} \\
& + 2 \begin { vmatrix} 2 & -2 - \lambda \\ 2 & 1 \end { vmatrix} \\
= & \dots = -\lambda ^ 3 - 3 \lambda ^ 2 + 9\lambda + 27 = (3-\lambda )(-3-\lambda )^ 2
\end { aligned} \]
\item $ \lambda = 3 $
\[ \begin { aligned }
& \left ( \begin { array} { c c c | c} 1-3 & 2 & 2 & 0 \\ 2 & -2-3 & 1 & 0 \\ 2 & 1 & -2-3 & 0 \end { array} \right )
= \left ( \begin { array} { c c c | c} -2 & 2 & 2 & 0 \\ 2 & -5 & 1 & 0 \\ 2 & 1 & -5 & 0 \end { array} \right ) \\
& \sim \left ( \begin { array} { c c c | c} -1 & 1 & 1 & 0 \\ 0 & -3 & 3 & 0 \\ 0 & 3 & -3 & 0 \end { array} \right )
\sim \left ( \begin { array} { c c c | c} 1 & -1 & -1 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 0 & 0 \end { array} \right )
\sim \left ( \begin { array} { c c c | c} 1 & 0 & -2 & 0 \\ 0 & 1 & -1 & 0 \\ 0 & 0 & 0 & 0 \end { array} \right ) \\
& \implies \eig _ A(3) = \left \langle \begin { pmatrix} 2 \\ 1 \\ 1 \end { pmatrix} \right \rangle
\end { aligned} \]
$ \lambda = - 3 $
\[ \begin { aligned }
& \left ( \begin { array} { c c c | c} 1+3 & 2 & 2 & 0 \\ 2 & -2+3 & 1 & 0 \\ 2 & 1 & -2+3 & 0 \end { array} \right )
= \left ( \begin { array} { c c c | c} 4 & 2 & 2 & 0 \\ 2 & 1 & 1 & 0 \\ 2 & 1 & 1 & 0 \end { array} \right ) \\
& \sim \left ( \begin { array} { c c c | c} 2 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end { array} \right ) \\
& \implies \eig _ A(-3) = \left \langle \begin { pmatrix} -1 \\ 0 \\ 2 \end { pmatrix} , \begin { pmatrix} -1 \\ 2 \\ 0 \end { pmatrix} \right \rangle
\end { aligned} \]
\item \[ \begin { aligned }
& S = \begin { pmatrix} 2 & -1 & -1 \\ 1 & 0 & 2 \\ 1 & 2 & 0 \end { pmatrix} \\
& \implies S^ { -1} A S = \begin { pmatrix} 3 & 0 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & -3 \end { pmatrix}
\end { aligned} \]
\end { enumerate}
\begin { lemma} \label { theo:2.2.16}
2022-04-27 12:36:04 +02:00
Sei $ A \in \K ^ { \nxn } $ und $ \underbrace { \spur ( A ) } _ { \mathclap { \color { red } \text { \dq Spur von $ A$ \dq } } }
2022-04-27 16:18:26 +02:00
:= \sum \limits _ { i=1} ^ n a_ { ii} $
2022-04-12 12:48:05 +02:00
\[ \chi _ A ( \lambda ) = ( - 1 ) ^ n \lambda ^ n + ( - 1 ) ^ { n - 1 } \spur ( A ) \lambda ^ { n - 1 } + \cdots + \det ( A ) \]
\begin { proof}
2022-04-27 12:36:04 +02:00
$ \chi _ A ( \lambda ) = \sum \limits _ { \pi \in S _ n } \sgn ( \pi ) \prod \limits _ { i = 1 } ^ n \tilde { a } _ { i \pi ( i ) } $ mit
2022-04-27 16:18:26 +02:00
$ \tilde { a } _ { ij } = \begin { cases } a _ { ij } & i \neq j \\ a _ { ij } - \lambda & i = j \end { cases } $ . \\
2022-04-27 12:36:04 +02:00
Wenn $ \pi \neq \id $ gilt $ \deg \left ( \prod \limits _ { i = 1 } ^ n \tilde { a } _ { i \pi ( i ) } \right ) \le n - 2 $ ,
2022-04-27 16:18:26 +02:00
da mindestens zwei Elemente vertauscht werden. Die Koeffizienten von Grad $ n, n - 1 $ kann man also aus
$ \prod \limits _ { i = 1 } ^ n \tilde { a } _ { ii } = \prod \limits _ { i = 1 } ^ n ( \tilde { a } _ { ii } - \lambda ) $ ablesen.
Daraus folgt die Behauptung für die höchsten beiden Koeffizienten.
Weiters gilt $ \chi _ A ( 0 ) = \det ( A ) $ , was die Aussage für den konstanten Koeffizienten zeigt.
2022-04-12 12:48:05 +02:00
\end { proof}
\end { lemma}
$ \sigma _ j : = ( - 1 ) ^ j \sum \limits _ { \substack { S \subset [ n ] \\ \lvert S \rvert = n - j } } \prod \limits _ { s \in S } \lambda _ s $
\begin { korollar}
\leavevmode
\begin { enumerate} [label=\alph * )]
\item $ A \sim B \implies \spur ( A ) = \spur ( B ) $
2022-04-27 12:36:04 +02:00
\item A diagonalisierbar $ \implies \spur ( A ) = \lambda _ 1 + \cdots + \lambda _ n $ mit
2022-04-27 16:18:26 +02:00
$ \lambda _ 1 , \dots , \lambda _ n $ Eigenwerte von $ A $ , nach Vielfachheit gezählt.
2022-04-27 12:36:04 +02:00
\item A diagonalisierbar $ \implies \det ( A ) = \lambda _ 1 \cdot \dots \cdot \lambda _ n $ mit
2022-04-27 16:18:26 +02:00
$ \lambda _ 1 , \dots , \lambda _ n $ Eigenwerte von $ A $ , nach Vielfachheit gezählt.
2022-04-12 12:48:05 +02:00
\end { enumerate}
\begin { proof}
Folgt daraus, dass das charakteristische Polynom (und damit seine Koeffizienten) unter Ähnlichkeit invariant sind (Lemma \ref { theo:2.2.7} ) und Lemma \ref { theo:2.2.16}
\end { proof}
\end { korollar}
\begin { satz} [Cayley-Hamilton]
\dq $ \chi _ A ( A ) = 0 $ \dq , das heißt sei $ A \in \K ^ { \nxn } $ mit charakteristischem Polynom $ \chi _ A ( \lambda ) = c _ n \lambda ^ n + c _ { n - 1 } \lambda ^ { n - 1 } + \cdots + c _ 0 $ .
Dann gilt
\[
\chi _ A(A):=c_ n A^ n + c_ { n-1} A ^ { n-1} + \cdots c_ 0 I = 0 = \begin { pmatrix} 0 & \dots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \dots & 0\end { pmatrix} \in \K ^ { \nxn }
\]
\begin { proof}
Sei $ B : = A ^ T - \lambda I =
\begin { pmatrix}
a_ { 11} - \lambda & a_ { 21} & \dots & a_ { n1} \\
a_ { 12} & a_ { 22} - \lambda & \dots & a_ { n2} \\
\vdots & \ddots & \ddots & \vdots \\
a_ { 1n} & a_ { 2n} & \dots & a_ { nn} - \lambda
\end { pmatrix}
= (a_ { ji} - \delta _ { ij} \lambda )_ { ij} $
und $ C: = \adj ( B ) $ , sodass
\begin { equation}
CB = \det (B) I_ n = \chi _ A = I_ n [\chi _ A = \chi _ { A^ T}
\label { eq:2.2.18.1}
\end { equation}
\ref { eq:2.2.18.1} heißt komponentenweise, dass
\begin { flalign}
& \sum _ { i=1} ^ { n}
\underbrace { c_ { ki} } _ { \mathrlap { \text { Polynome, in die $ A $ eingesetzt werden kann} } }
\underbrace { b_ { ij} }
= \delta _ { ij} \cdot \underbrace { \chi _ A} \forall k, j \in [n] \nonumber \\
= & \sum _ { i=1} ^ { n} c_ { ki} (A) b_ { ij} (A) = \delta _ { jk} \chi _ A (A) \label { eq:2.2.18.2}
\end { flalign}
Wegen $ b _ { ij } ( A ) = a _ { ji } I _ N - \delta _ { ij } A $ gilt weiters
\begin { equation}
\forall i \in [n]: \sum _ { j=1} ^ { n} b_ { ij} (A) e_ j = (\sum _ { j=1} ^ { n} a_ { ji} e_ j) - A e_ i = 0
\label { eq:2.2.18.3}
\end { equation}
Es folgt $ \forall k \in [ n ] $
\begin { flalign*}
\chi _ A (A) e_ k & = \sum _ { j=1} ^ { n} \delta _ { jk} \chi (A) e_ j & \\
& \underbrace { =} _ { \mathclap { \text { \ref { eq:2.2.18.2} } } }
\sum _ { j=1} ^ { n} \sum _ { i=1} ^ { n} c_ { ki} (A) b_ { ij} (A) e_ j & \\
& = \sum _ { i=1} ^ { n} c_ { ki} (A) (\sum _ { j=1} ^ { n} b_ { ij(A) e_ j} ) & \\
& \underbrace { =} _ { \mathclap { \text { \ref { eq:2.2.18.3} } } } 0 & \\
\implies \chi _ A(A) = 0
\end { flalign*}
\end { proof}
\end { satz}
\subsubsection { Berechnung der Koeffizienten von $ \chi _ A $ }
2022-04-27 12:36:04 +02:00
Sei $ f ( \lambda ) \underbrace { = } _ { \text { ( * ) } } \prod \limits _ { j = 1 } ^ { n } ( \lambda _ j - \lambda ) =
2022-04-27 16:18:26 +02:00
\underbrace { c_ n\lambda ^ n} _ { =(-1)^ n} + c_ { n-1} \lambda ^ { n-1} + \cdots + c_ 0$
2022-04-12 12:48:05 +02:00
Wie können wir $ c _ j $ effizient bestimmen?
\begin { itemize}
\item [Bemerkung 1:] $ \displaystyle { c _ j = ( - 1 ) ^ { j } \sum _ { \substack { S \subseteq [ n ] \\
\lvert S \rvert = n-j} } \prod _ { s \in S} \lambda _ s =:
\sigma _ { n-j} ^ n (\lambda _ 1, \dots , \lambda _ n)} $ \\
Dies folgt aus (*) durch Ausmultiplizieren \\
Sei nun weiters $ p _ j ^ n ( \lambda _ 1 , \dots , \lambda _ n ) : = \sum \limits _ { i = 1 } ^ { n } \lambda _ i ^ j $
\item [Bemerkung 2:] $ \sigma _ j ^ n, p _ j ^ n $ sind symmetrisch, das heißt
\[ \begin { aligned }
& \sigma _ j^ n(\lambda _ { \pi (1)} , \dots , \lambda _ { \pi (n)} ) = \sigma _ { j} ^ n (\lambda _ 1, \dots , \lambda _ n) \\
& p_ j^ n(\lambda _ { \pi (1)} , \dots , \lambda _ { \pi (n)} ) = p_ { j} ^ n (\lambda _ 1, \dots , \lambda _ n)
\end { aligned} \text { für } \pi \in S_ n\]
\end { itemize}
\begin { lemma} [Newtonidentität] \label { theo:2.2.19}
Es gilt für $ k \le n $
\[ k \sigma _ k ^ n + \sum _ { j = 0 } ^ { k - 1 } \sigma _ j ^ n p _ { k - j } ^ n = 0 \]
\begin { proof}
Induktion.
\begin { itemize}
\item [$ k = n $ :] Wegen
\begin { equation*}
0= \sum _ { i=1} ^ { n} =
\sum _ { i=1} ^ { n} \sum _ { j=0} ^ n c_ j \lambda _ i^ j =
\sum _ { j=0} ^ n c_ j p_ j^ n =
\sum _ { j=0} ^ n \sigma _ { n-j} ^ n p_ j^ n =
\sum _ { j=0} ^ n \sigma _ j^ n p_ { n-j} ^ n
\end { equation*}
folgt $ \sigma _ n ^ n p _ 0 ^ n + \sum \limits _ { j = 0 } ^ n \sigma _ j ^ n p _ { n - j } ^ n = 0 $ was mit
$ p _ 0 ^ n = n $ die gewünschte Aussage liefert.
\item [$ k<n $ :] Betrachte das (symmetrische) \[
q(\lambda _ 1, \dots , \lambda _ n) :=
k \sigma _ k^ n + \sum _ { j=0} ^ { k-1} \sigma _ j^ n p_ { k-1} ^ n
\]
Es gilt \[ q ( \lambda _ 1 , \dots , \lambda _ n ) =
\sum _ { j_ 1, \dots , j_ n} c_ { j_ 1 \dots j_ n} \lambda _ 1^ { j_ 1} \cdots \lambda _ n^ { j_ n} \]
und wir müssen zeigen, dass alle Koeffizienten $ c _ { j _ 1 \dots j _ n } = 0 $ sind.
Dazu bemerken wir, dass $ c _ { j _ 1 \dots j _ n } $ immer $ 0 $ ist,
wenn mehr als $ k $ $ j _ i $ 's ungleich $ 0 $ sind.\\
Sei also $ c _ { j _ 1 \dots j _ n } $ ein solcher Koeffizient mit $ j _ { k + 1 } , \dots , j _ n = 0 $ .
Dann gilt
\begin { align*}
& \underset { \rotatebox { 90} { $ = $ } }
{ q(\lambda _ 1, \dots , \lambda _ k, 0, \dots , 0)} =
\sum _ { j_ 1, \dots , j_ k} c_ { j_ 1 \dots j_ n 0 \dots 0}
\lambda _ 1^ { j_ 1} \cdots \lambda _ n^ { j_ k} \\
& k \sigma _ k^ n + \sum _ { j=0} ^ { k-1} \sigma _ j^ k p_ { k-1} ^ k = 0
\text { nach Voraussetzung}
\end { align*}
Aufgrund der Symmetrie gilt dasselbe Argument für alle anderen Koeffizienten
mit höchstens $ k $ vielen $ j _ i $ 's ungleich $ 0 $ .
\end { itemize}
\end { proof}
\end { lemma}
\begin { satz}
Sei $ A \in \K ^ { \nxn } $ diagonalisierbar. Dann gilt für
\begin { align*}
\chi _ A(\lambda ) & = c_ { n} \lambda ^ { n} + c_ { n-1} \lambda ^ { n-1} + \cdots + c_ 0 \\
& c_ n = (-1)^ n \\
& c_ { n-k} = -\frac 1k \sum _ { j=0} ^ { k-1} c_ { n-j} \spur (A^ { k-j} )
\end { align*}
\begin { proof}
Folgt direkt aus Lemma \ref { theo:2.2.19} und der Bemerkung dass für $ A $ diagonalisierbar \\
$ \spur ( A ^ k ) = \lambda _ 1 ^ k + \cdots + \lambda _ n ^ k $ gilt.
\end { proof}
\end { satz}
\subsubsection { Bemerkung}
$ \underset { \mathrlap { \text { \dq fast alle Matrizen sind diagonalisierbar \dq } } }
{ \text { Gilt} } $ auch für $ A$ nicht diagonalisierbar. \dq Beweis \dq Stetigkeit
\subsubsection { Triangulierbarkeit von Matrizen}
\begin { defin}
\leavevmode
\begin { enumerate} [label=\alph * )]
2022-04-28 10:33:22 +02:00
\item $ \alpha \in \homkv , \dim ( V ) = n $ heißt \underline { triangulierbar} wenn es eine Basis $ B $ gibt,
2022-04-12 12:48:05 +02:00
sodass $ { } _ B M ( \alpha ) _ B $ obere Dreiecksgestalt hat.
\item $ A \in \K ^ { \nxn } $ heißt \underline { triangulierbar} wenn es eine reguläre Matrix $ P \in \K ^ { \nxn } $ gibt,
mit $ P ^ { - 1 } A P $ obere Dreiecksgestalt.
\end { enumerate}
\end { defin}
\begin { satz}
$ A \in \K ^ { \nxn } / \alpha $ ist triangulierbar $ \iff \chi _ A / \chi _ \alpha $ zerfällt in Linearfaktoren.
\begin { proof} [Beweis]
\begin { itemize}
\item [$\implies$:] $ \chi _ A $ ist invariant
bezüglich Ähnlichkeitsumformung (Lemma \ref { theo:2.2.7} ).
Sei $ P ^ { - 1 } A P = \begin { pmatrix } \lambda _ 1 & & * \\
& \ddots & \\
0 & & \lambda _ n\end { pmatrix} $
, dann folgt\\
$ \chi _ A ( \lambda ) = \chi _ { P ^ { - 1 } A P } ( \lambda )
= \prod \limits _ { i=1} ^ n (\lambda _ i - \lambda ) $
\item [$\impliedby$:] Induktion nach $ n $
\begin { itemize}
\item [$n=1$:] Jede $ 1 \times 1 $ Matrix ist obere Dreiecksmatrix.
\item [$n-1\mapsto n$:] Sei $ \chi _ A ( \lambda ) =
\prod \limits _ { i=1} ^ n (\lambda _ i - \lambda )$ und sei
$ b _ 1 \in \eig _ { \lambda _ 1 } ( \alpha ) $ .
Sei $ B = ( b _ 1 , \dots , b _ n ) $ Basis von $ \K ^ n $ . Dann gilt
\[ \begin { aligned }
& A
= { } _ B M(\alpha )_ B
= \begin { pmatrix}
\lambda _ 1 & a_ { 12} & \dots & a_ { 1n} \\
2022-04-28 10:33:22 +02:00
0 & \tl & & \\
2022-04-12 12:48:05 +02:00
\vdots & & \tilde { A} & \\
2022-04-28 10:33:22 +02:00
0 & & & \br \end { pmatrix} \\
2022-04-12 12:48:05 +02:00
& \text { Sei } \beta : \begin { cases}
\overbrace { \langle b_ 2, \dots , b_ n\rangle } ^ { V}
& \to \langle b_ 2, \dots , b_ n\rangle \\
b_ i
& \mapsto \Phi ^ { -1} _ { \tilde { B} } (C\cdot
{ } _ { \tilde { B} } v)
\end { cases}
\end { aligned} \]
Es gilt $ \chi _ \alpha ( \lambda ) =
\lambda _ 1 - \lambda ) \cdot \chi _ \beta (\lambda )$ ,
daher zerfällt $ \chi _ \beta $ in Linearfaktoren.
Nach Induktionsvoraussetzung existiert eine Basis $ \tilde { B } =
(\tilde { b} _ 2, \dots , \tilde { b} _ n)$ von $ \tilde { V} $ mit
\begin { equation}
{ } _ { \tilde { B} } M(\beta )_ { \tilde { B} } =
\begin { pmatrix} \lambda _ 2 & & * \\
& \ddots & \\
0 & & \lambda _ n\end { pmatrix}
\label { eq:2.2.22.1}
\end { equation}
Weiters ist $ \alpha ( b _ i ) = a _ { 1 i } b _ 1 + \beta ( b _ i ) , i = 2 , \dots , n $ .
Sei $ \tilde { b } _ i = \sum \limits _ { j = 2 } ^ n \mu _ { ij } b _ j $ .
Wegen \ref { eq:2.2.22.1} gilt
\begin { equation}
\beta (\tilde { b} _ i) \in
\langle \tilde { b} _ 1, \dots , \tilde { b} _ i \rangle
\label { eq:2.2.22.2}
\end { equation}
Wir zeigen nun, dass für die Basis $ C = ( c _ 1 , \dots , c _ n ) $ mit
$ c _ 1 = b _ 1 , c _ 2 = \tilde { b } _ 2 , \dots , c _ n = \tilde { b } _ i $
die Matrix $ { } _ C M ( \alpha ) _ C $ obere Dreiecksgestalt hat.
Dies ist äquivalent zu
\[ \alpha ( c _ i ) \in \langle c _ 1 , \dots , c _ n \rangle \forall i = 1 , \dots , n \]
\begin { itemize}
\item [$ i = 1 $ :] $ \alpha ( c _ 1 ) = \alpha ( b _ 1 ) = \lambda _ 1 b _ 1
\in \langle b_ 1 \rangle = \langle c_ 1 \rangle $
\item [$ i> 1 $ :]
\begin { align*}
& \alpha (c_ i) = \alpha (\tilde { b} _ i) =
\alpha (\sum _ { j=2} ^ n \mu _ { ij} b_ j)
= \sum _ { j=2} ^ n \mu _ { ij} \alpha (b_ j) \\
& = \sum _ { j=2} ^ n\mu _ { ij} (a_ { 1j} b_ 1 + \beta (b_ j))
= (\underbrace { \sum _ { j=2} ^ n \mu _ { ij} a_ { 1j} } _
{ \displaystyle \sigma _ i} )
+ \sum _ { j=2} ^ n \mu _ { ij} \beta (b_ j) \\
& = \sigma _ i b_ 1+ \beta (\sum _ { j=2} ^ n \mu _ { ij} b_ j)
= \sigma _ i b_ 1 + \beta (\tilde { b} _ i) \\
& \underbrace { \in } _ { \text { \ref { eq:2.2.22.2} } }
\langle b_ 1,\tilde { b} _ 2,\dots ,\tilde { b} _ i\rangle
= \langle c_ 1, \dots , c_ i \rangle
\end { align*}
\end { itemize}
\end { itemize}
\end { itemize}
\end { proof}
\end { satz}
\section { Jordan Normalform}
\begin { defin}
Eine $ m \times m $ Matrix
\[ J _ m ( \lambda ) : = \begin { pmatrix }
\lambda & 1 & 0 & \dots & 0 \\
0 & \ddots & \ddots & \ddots & \vdots \\
\vdots & \ddots & \ddots & \ddots & 0 \\
\vdots & \ddots & \ddots & \ddots & 1 \\
0 & \dots & \dots & 0 & \lambda
\end { pmatrix} \]
heißt \underline { Jordanblock} der Dimension $ m $ zum Eigenwert $ \lambda $ .\\
Eine Matrix $ A \in \K ^ { \nxn } $ , die als Blockdiagonalmatrix aus Jordanblöcken besteht,
heißt \underline { Jordanmatrix} . \\
$ A \in \K ^ { \nxn } $ besitzt eine \underline { Jordan-Normalform} wenn $ P \in \K ^ { \nxn } $ invertierbar existiert,
sodass $ P ^ { - 1 } AP $ Jordanmatrix ist.\\
2022-04-28 10:33:22 +02:00
$ \alpha \in \homkv $ besitzt eine \underline { Jordan-Normalform} wenn eine Basis $ B $ von $ V $ existiert,
2022-04-12 12:48:05 +02:00
sodass $ { } _ { B } M ( \alpha ) _ { B } $ Jordanmatrix ist.\\
B heißt \underline { Jordanbasis} zu $ A / \alpha $ .
\end { defin}
\subsubsection { Beispiel}
\begin { itemize}
\item Jede Diagonalmatrix ist Jordanmatrix
\item $ \begin { pmatrix } 1 \end { pmatrix } ,
\begin { pmatrix} 1 & 1 \\ 0 & 1\end { pmatrix} ,
\begin { pmatrix} 0 & 1 \\ 0 & 0\end { pmatrix} ,
\begin { pmatrix} 1 & 1 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2\end { pmatrix} ,
2022-04-27 23:03:56 +02:00
\xcancel { \begin { pmatrix} 1 & 1 \\ 0 & 2 \end { pmatrix} } $
2022-04-28 10:33:22 +02:00
\item \(
\begin { pmatrix} \tl 3\br \\
& \tl 2 & 1 \\
& & 2\br \end { pmatrix}
, \begin { pmatrix}
\tl 0 & 1 \\
0 & 0\br \\
& & \tl -1\br
\end { pmatrix} \)
2022-04-12 12:48:05 +02:00
\end { itemize}
Wir wollen zeigen, dass $ \alpha / A $ genau dann eine Jordan-Normalform besitzt, wenn $ \alpha / A $ triangulierbar ist.
\subsubsection { Bemerkung}
\begin { itemize}
\item $ \chi _ { J _ m ( \lambda ) } ( \mu ) = ( \lambda - \mu ) ^ m \implies \spec ( J _ m ( \lambda ) ) = \{ \lambda \} $ \\
$ J _ m ( \lambda ) - \lambda I = \begin { pmatrix }
0 & 1 & 0 & \dots & 0 \\
0 & \ddots & \ddots & \ddots & \vdots \\
\vdots & \ddots & \ddots & \ddots & \vdots \\
\vdots & & \ddots & \ddots & 1 \\
0 & \dots & \dots & 0 & 0
\end { pmatrix} $ \\
$ \implies \dim ( \eig _ { J _ m ( \lambda ) } ( \lambda ) ) = \dim ( \ker ( J _ m ( \lambda ) - \lambda I ) ) = 1 $ \\
$ \implies m _ g ( \lambda ) = 1 $ und $ m _ a ( \lambda ) = m $ .
\item $ J _ m ( 0 ) ^ m = 0 $ , das heißt $ J _ m ( 0 ) $ ist \underline { nilpotent} .
\begin { align*}
& J_ m(0)(e_ i): \begin { cases} e_ { i-1} & i \in \{ 2, \dots , m\} \\
0 & \text { sonst} \end { cases} \\
& J_ m(0)^ l(e_ i): \begin { cases} e_ { i-l} & i \in \{ l+1, \dots , m\} \\
0 & \text { sonst} \end { cases}
\end { align*}
\end { itemize}
\begin { defin}
2022-04-28 10:33:22 +02:00
$ \alpha \in \homkv $ oder $ A \in \K ^ { \nxn } $ heißt \underline { nilpotent} (mit Index $ m $ ) falls
2022-04-12 12:48:05 +02:00
$ \alpha ^ m = 0 / A ^ m = 0 $ und $ \forall l \in [ m - 1 ] : \alpha ^ l \neq 0 / A ^ l \neq 0 $ .
\end { defin}
\begin { lemma}
\label { theo:2.3.3}
2022-04-28 10:33:22 +02:00
Sei $ \alpha \in \homkv , \dim ( V ) = n $ nilpotent mit Index $ m $ . Dann existiert eine Basis $ B $ mit
2022-04-12 12:48:05 +02:00
\begin { equation*}
{ } _ B M(\alpha )_ B =
\begin { pmatrix}
0 & \delta _ 1 & & \\
& \ddots & \ddots & \\
& & \ddots & \delta _ { n-1} \\
& & & 0
\end { pmatrix}
\text { und } \delta _ i \in \{ 0, 1\} \forall i \in [n-1]
\end { equation*}
Das heißt $ { } _ B M ( \alpha ) _ B $ ist blockdiagonal mit Jordanblöcken mit Eigenwerten $ 0 $
\begin { proof}
Sei $ V _ i : = \ker ( \alpha ^ i ) $ . \\
Dies ergibt eine aufsteigende Kette von Unterräumen
\begin { equation*}
\underbrace { \{ 0\} } _ { =V_ 0} \subseteq V_ 1 \subseteq \cdots \subseteq \underbrace { V_ m} _ { =V}
\end { equation*}
Wir bauen uns iterativ eine Basis für Komplemente $ W _ i $ mit $ V _ { i - 1 } \oplus W _ i = V _ i $ .
Sei also $ B ^ { m - 1 } $ Basis von $ V _ { m - 1 } $ . \\
$ C ^ m = ( c _ 1 ^ m, \dots , c _ { r _ { m } } ) $ Basis von $ W _ m $
[das heißt $ C ^ m $ ergänzt die Basis $ B ^ { m - 1 } $ zu Basis von $ V ^ m $ ]. \\
\underline { Behauptung}
\begin { enumerate} [label=\arabic * )]
\item $ \alpha ( C ^ m ) \subseteq V _ { m - 1 } $
\item $ \alpha ( C ^ m ) $ linear unabhängig
\item $ \langle \alpha ( C ^ m ) \rangle \cap V _ { m - 2 } = \{ 0 \} $
\end { enumerate}
\begin { proof} [Zwischenbeweis]
\begin { itemize}
\item [1)] folgt aus $ \alpha ( V _ { i + 1 } ) \subseteq \alpha ( V _ i ) $
\item [3)] Sei $ \sum \limits _ { i } \mu _ i \alpha ( c _ i ^ m ) \in V _ { m - 2 } $
\begin { align*}
& \implies \alpha ^ { m-2} (\sum _ { i} \mu _ i \alpha (c_ i^ m)) = 0 \\
& \implies \alpha ^ { m-1} (\sum _ { i} \mu _ i \alpha (c_ i^ m)) = 0 \\
& \implies \sum \mu _ i c_ i^ m \in V_ { m-1} \\
& \underbrace { \implies } _ { \mathclap { \substack { (c_ i^ m) \text { liegen} \\
\text { im Komplement} \\
\text { von } V_ { m-1} } } }
\mu _ i = 0, \forall i \implies \sum _ { i} \mu _ i \alpha (c_ i^ m) = 0
\end { align*}
\item [2)] folgt aus 3) [da $ 0 \in V _ { m - 2 } $ ]
\end { itemize}
\end { proof}
Es folgt, dass \begin { align*}
& & \langle D^ { m-1} \rangle \; \; & \langle D^ m \rangle \\
& & \underbrace { V_ { m-2} \oplus \langle \alpha (C^ m) \rangle \oplus \langle C^ { m-1} \rangle } _ { V_ { m-1} }
\oplus & \langle C^ m \rangle = V
\end { align*}
Setze $ D ^ m : = C ^ m $ und definiere induktiv für $ D ^ i \subseteq V _ i $ die Menge
$ D ^ { i - 1 } : = \alpha ( D ^ i ) \cup C ^ { i - 1 } \subseteq V _ { i - 1 } $ sodass mit einer Basis $ B ^ { i - 2 } $ von
$ V _ { i - 2 } $ die Menge $ B ^ { i - 2 } \cup D ^ { i - 1 } $ Basis von $ V _ { i - 1 } $ ist, also
\[
V_ { i-2} \oplus \underbrace { \langle \alpha (D^ i) \rangle \oplus \langle C^ { i-1} \rangle } _ { \langle D^ i \rangle }
= V_ { i-1} \text { $ \leftarrow $ das geht nach obiger Behauptung}
\]
Nach Konstruktion ist $ ( D ^ 1 , \dots , D ^ m ) $ Basis von $ V $ .
Sie besteht aus folgenden Elementen:
\begin { align*}
\left .
\begin { array} { lll}
J_ m(0) \to & \alpha ^ { m-1} (d_ 1^ m), \dots , \alpha (d_ 1^ m), & d_ 1^ m \\
& & \vdots \\
J_ m(0) \to & \alpha ^ { m-1} (d_ { r_ m} ^ m), \dots , \alpha (d_ { r_ m} ^ m), & d_ { r_ m} ^ m
\end { array}
\right \} \in V_ m \\
\left .
\begin { array} { lll}
J_ { m-1} (0) \to & \alpha ^ { m-1} (d_ 1^ { m-1} ), \dots , \alpha (d_ 1^ { m-1} ), & d_ 1^ { m-1} \\
& & \vdots \\
J_ { m-1} (0) \to & \alpha ^ { m-1} (d_ { r_ { m-1} } ^ { m-1} ), \dots , \alpha (d_ { r_ { m-1} } ^ { m-1} ), & d_ { r_ { m-1} } ^ { m-1}
\end { array}
\right \} \in V_ { m-1} \\
\left . \begin { array} { lr}
J_ 1(0) \to & d_ 1^ 1 \\
& \vdots \\
J_ 1(0) \to & d_ { r_ 1} ^ 1
\end { array}
\right \} V_ 1 = \ker (\alpha )
\end { align*}
Wenn wir die Basiselemente von links nach rechts und von oben nach unten ordnen erhalten wir
die gewünschte Gestalt.
\end { proof}
\end { lemma}
\subsubsection { Bemerkung}
Angenommen \( \alpha - \lambda \id : V \to V \) nilpotent. Dann besitzt \( \alpha \) nach Lemma
\ref { theo:2.3.3} Jordan-Normalform.
\begin { defin}
\label { theo:2.3.4}
2022-04-28 10:33:22 +02:00
Sei \( V \K \) -Vektorraum, \( \dim ( V ) < \infty , \alpha \in \homkv \) und \( \lambda \in \spec ( \alpha ) \) .
2022-04-12 12:48:05 +02:00
Für \( l \in \mathbb { N } \) definiere \( V _ { l, \lambda } : = \ker ( ( \alpha - \lambda \id ) ^ l ) \)
\end { defin}
\subsubsection { Bemerkung}
\begin { itemize}
2022-04-28 10:33:22 +02:00
\item $ \alpha - \lambda \id | _ { V _ { l, \lambda } } \in \homk ( V _ { l, \lambda } , V _ { l, \lambda } ) $ :
2022-04-12 12:48:05 +02:00
\begin { align*}
\text { zu Zeigen: } v\in V_ { l, \lambda } & \implies \alpha (v) - \lambda v \in V_ { l, \lambda } \text { , das heißt} \\
(\alpha - \lambda \id )^ l v = 0 & \implies (\alpha - \lambda \id )^ { l-1} (\alpha - \lambda \id ) v = 0 \\
& \implies (\alpha - \lambda \id )(v) \in V_ { l, \lambda } & \square
\end { align*}
\item Nach Lemma \ref { theo:2.3.3} gibt es also Basis von $ V _ { l, \lambda } $ bezüglich derer
$ \alpha - \lambda \id | _ { V _ { l, \lambda } } : V _ { l, \lambda } \to V _ { l, \lambda } $
Jordan-Normalform hat
\end { itemize}
\begin { lemma}
\label { theo:2.3.5}
2022-04-28 10:33:22 +02:00
Sei $ V \K $ -Vektorraum, $ \dim ( V ) < \infty , \alpha \in \homkv $ . Für $ l \in \mathbb { N } $ sei
2022-04-12 12:48:05 +02:00
$ V _ l : = \ker ( \alpha ^ l ) $ . Dann gilt $ \alpha ( V _ l ) \subseteq V _ { l - 1 } \subseteq V _ l $ für alle
$ l \in \mathbb { N } $ und es existiert genau ein $ k \in \mathbb { N } _ 0 $ mit
\[
\{ 0\} = V_ 0 \subseteq V_ 1 \subseteq \cdots \subseteq V_ k = V_ { k+1} \text { und } V_ { l+1} = V_ l, \forall l \ge k
\]
\begin { proof}
Da $ \dim ( V ) < \infty $ muss es ein kleinstes $ k $ mit $ V _ { k + 1 } = V _ { k } $ geben.
Angenommen $ \exists l \ge k $ mit $ V _ { l + 1 } \neq V _ l $ . Sei $ 0 \neq v \in V _ { l + 1 } \setminus V _ l $
$ \implies 0 = \alpha ^ { l + 1 } ( v ) = \alpha ^ { k + 1 } ( \alpha ^ { l - k } ( v ) ) $ und $ 0 \neq \alpha ^ l ( v )
= \alpha ^ k (\alpha ^ { l-k} (v)) \implies 0\neq \alpha ^ { l-k} (v) \in V_ { k+1} \setminus V_ k$
\Lightning
\end { proof}
\end { lemma}
\begin { defin}
Sei $ V _ { l, \lambda } $ wie in Definition \ref { theo:2.3.4} und $ k $ wie in Lemma \ref { theo:2.3.5}
Dann heißt \[
\widetilde { \eig _ \alpha (\lambda )} := V_ { k, \lambda } = V_ { k+1, \lambda }
\]
\underline { verallgemeinerter Eigenraum} oder \underline { Hauptraum} von $ \alpha $ zum Eigenwert
$ \lambda $ . $ v \in V _ { l, \lambda } \setminus V _ { l - 1 , \lambda } $ für $ 1 \le l \le k $ heißt
\underline { verallgemeinerter Eigenvektor} der Ordnung $ l $ .
\end { defin}
\subsubsection { Idee}
\begin { itemize}
\item $ \alpha | _ { \widetilde { \eig _ \alpha ( \lambda ) } } : \widetilde { \eig _ \alpha ( \lambda ) } \to \widetilde { \eig _ \alpha ( \lambda ) } $
hat Jordan-Normalform.
Zerlege \begin { equation}
\label { eq:2.3.6.1}
V:= \widetilde { \eig _ \alpha (\lambda _ 1)} \oplus \cdots \oplus \widetilde { \eig _ \alpha (\lambda _ r)}
\end { equation}
dann besitzt ganz $ \alpha : V \to V $ Jordan-Normalform
2022-04-28 10:33:22 +02:00
\item Sei $ V = V _ 1 \oplus \cdots \oplus V _ r $ und $ \alpha \in \homkv $ . Falls $ \alpha ( V _ i ) \subseteq V _ i $ für alle
2022-04-12 12:48:05 +02:00
$ i \in [ r ] $ , dann schreiben wir $ \alpha = \alpha _ 1 \oplus \cdots \oplus \alpha _ r $ mit $ \alpha _ i = \alpha | _ { V _ i } \forall i \in [ r ] $ .
Für $ v = v _ 1 + \cdots + v _ r, v _ i \in V _ i, \forall i \in [ r ] $ gilt also $ \alpha ( v ) = \alpha _ 1 ( v _ 1 ) + \cdots + \alpha _ r ( v _ r ) $ .
Sei $ B _ i = \{ b _ 1 ^ i, \dots , b _ { d _ i } ^ i \} $ Basis von $ V _ i $ und $ B = ( B _ 1 , \dots , B _ r ) $ . Dann hat $ { } _ B M ( \alpha ) _ B $
Blockdiagonalgestalt mit Blöcken $ { } _ { B _ i } M ( \alpha _ i ) _ { B _ i } $ , das heißt \[
{ } _ B M(\alpha )_ B = \begin { pmatrix}
\overbrace { { } _ { B_ 1} M(\alpha _ 1)_ { B_ 1} } ^ { \in \K ^ { d_ 1 \times d_ 1} } & & 0 \\
& \ddots & \\
0 & & \underbrace { { } _ { B_ r} M(\alpha _ r)_ { B_ r} } _ { \in \K ^ { d_ r \times d_ r} }
\end { pmatrix}
\]
Insbesondere gilt $ \chi _ \alpha = \chi _ { \alpha _ 1 } \cdot \dots \cdots \chi _ { \alpha _ r } $
\item Da wir schon wissen, dass $ \alpha | _ { \widetilde { \eig _ \alpha ( \lambda _ i ) } } $ Jordan-Normalform hat
folgt \\ Jordan-Normalform für $ \alpha $ wenn \ref { eq:2.3.6.1} gezeigt werden kann.
\end { itemize}
\begin { satz}
\label { theo:2.3.7}
2022-04-28 10:33:22 +02:00
Sei $ V \K $ -Vektorraum mit $ \dim ( V ) < \infty $ und $ \alpha \in \homkv $ sodass
2022-04-12 12:48:05 +02:00
$ \chi _ \alpha ( \lambda ) = ( \lambda _ 1 - \lambda ) \cdots ( \lambda _ r - \lambda ) $ in Linearfaktoren
zerfällt. Dann gilt
$ V = \widetilde { \eig _ \alpha ( \lambda _ 1 ) } \oplus \cdots \oplus \widetilde { \eig _ \alpha ( \lambda _ r ) } $
2022-04-22 10:56:47 +02:00
und insbesondere $ \alpha = \alpha _ 1 \oplus \cdots \oplus \alpha _ r $ mit
2022-04-28 10:33:22 +02:00
$ \alpha _ i : = \alpha | _ { \widetilde { \eig _ \alpha ( \lambda _ i ) } } \in \homk ( \widetilde { \eig _ \alpha ( \lambda _ i ) } , \widetilde { \eig _ \alpha ( \lambda _ i ) } ) $
2022-04-12 12:48:05 +02:00
\begin { proof}
Induktion nach $ \dim ( V ) $ .
\begin { itemize}
\item [$n=1$] \checkmark
\item [$n-1 \mapsto n$] Da $ \chi _ A $ in Linearfaktoren zerfällt besitzt es eine Nullstelle $ \lambda \in \spec ( \alpha ) $ .
\begin { enumerate} [label=Fall \arabic * :]
\item $ \widetilde { \eig _ \alpha ( \lambda ) } = V $ \\
\underline { Behauptung:} $ \spec ( \alpha ) = \{ \lambda \} $
\begin { proof} [Zwischenbeweis]
Angenommen $ \lambda ' \neq \lambda $ und $ \lambda ' \in \spec ( \alpha ) $ und $ v \in \eig _ \alpha ( \lambda ' ) $ . \\
$ \implies ( \alpha - \lambda \id ) ( v ) = \alpha ( v ) - \lambda 'v + ( \lambda ' - \lambda ) v = ( \lambda ' - \lambda ) ( v ) $ \\
$ \implies ( \alpha - \lambda \id ) ^ l ( v ) \neq 0 , \forall l \in \mathbb { N } $ \Lightning \\
Daraus folgt das gewünschte Resultat
\end { proof}
\item $ \widetilde { \eig _ \alpha ( \lambda ) } \neq V $ . Sei $ k $ minimal mit
$ \ker ( \alpha - \lambda - \id ) ^ k = \widetilde { \eig _ \alpha ( \lambda ) } $ [Lemma \ref { theo:2.3.5} ]
Setze $ V _ 1 : = \widetilde { \eig _ \alpha ( \lambda ) } , V _ 2 : = \im ( \alpha - \lambda \id ) ^ k $ . \\
\underline { Behauptung:}
\begin { enumerate} [label=(\roman * )]
\item $ \alpha ( V _ i ) \subseteq V _ i, i \in \{ 1 , 2 \} $
\item $ V = V _ 1 \oplus V _ 2 $
\end { enumerate}
\begin { proof} [Zwischenbeweis]
\begin { enumerate} [label=(\roman * )]
\item Wir zeigen $ ( \alpha - \lambda \id ) ( V _ i ) \subseteq V _ i $ .
\begin { itemize}
\item [$i=1$:] Sei $ v \in V _ 1 = \ker ( \alpha - \lambda \id ) ^ k $ . Dann gilt klarerweise
$ ( \alpha - \lambda \id ) ( v ) \in \ker ( \alpha - \lambda \id ) ^ k \checkmark $
\item [$i=2$:] Sei $ v \in \im ( \alpha - \lambda \id ) ^ k $ , also $ v = ( \alpha - \lambda \id ) ^ k ( w ) $
$ \implies ( \alpha - \lambda \id ) ( v ) = ( \alpha - \lambda \id ) ^ k ( \alpha - \lambda \id ) ( w ) \in \im ( \alpha - \lambda \id ) ^ k \checkmark $
\end { itemize}
\item Es gilt $ \dim ( V ) = \dim ( V _ 1 ) + \dim ( V _ 2 ) $ nach der Dimensionsformel. Es genügt also zu zeigen, dass
2022-04-22 11:19:10 +02:00
$ V _ 1 \cap V _ 2 = \{ 0 \} $ . \\ Sei $ v \in V _ 1 \cap V _ 2 $
2022-04-12 12:48:05 +02:00
\begin { align*}
& \underbrace { \implies } _ { v\in V_ 2} \exists w\in V: v = (\alpha - \lambda \id )^ k(w) \\
& \underbrace { \implies } _ { v\in V_ 1} (\alpha - \lambda \id )^ { 2k} (w) = 0 \\
& \implies w \in V_ { 2k, \lambda } \setminus V_ { k, \lambda } \underbrace { \implies } _ { \mathclap { \text { Lemma \ref { theo:2.3.5} } } } w = \{ 0\} \checkmark
\end { align*}
\end { enumerate}
\end { proof}
\end { enumerate}
Es folgt $ V = \underbrace { \widetilde { \eig ( \lambda ) } } _ { V _ 1 } \oplus V _ 2 , \dim ( V _ 2 ) < n $ und \\
$ \alpha = \alpha _ 1 \oplus \alpha _ 2 , \alpha _ i : = \alpha | _ { V _ i } , i \in \{ 1 , 2 \} $ .
Es folgt $ \chi _ \alpha = \chi _ { \alpha _ 1 } \cdot \chi _ { \alpha _ 2 } $ , also zerfällt $ \chi _ { \alpha _ 2 } $
in Linearfaktoren. Daher können wir die Induktionsvorraussetzung anwenden, was das gewünschte Resultat lierfert.
\end { itemize}
\end { proof}
\end { satz}
\begin { satz}
2022-04-28 10:33:22 +02:00
Sei $ V \K $ -Vektorraum, $ \dim ( V ) < \infty $ und $ \alpha \in \homkv $ sodass $ \chi _ A $ in
2022-04-12 12:48:05 +02:00
Linearfaktoren zerfällt. Dann besitzt $ \alpha $ Jordan-Normalform.
\begin { proof}
Zerlege nach Satz \ref { theo:2.3.7}
$ V = \widetilde { \eig _ \alpha ( \lambda _ 1 ) } \oplus \cdots \oplus \widetilde { \eig _ \alpha ( \lambda _ r ) } $
und \\
$ \alpha = \alpha \oplus \cdots \oplus \alpha _ r $ .
Da $ \widetilde { \eig _ \alpha ( \lambda _ i ) } = \ker ( \alpha - \lambda _ i \id ) ^ { k _ i } $ ist
$ \alpha _ i - \lambda _ i \id : = \alpha | _ { \widetilde { \eig _ \alpha ( \lambda _ i ) } } - \lambda
\id |_ { \widetilde { \eig _ \alpha (\lambda _ i)} } $ nilpotent. Nach Lemma \ref { theo: 2 . 3 . 3 } gibt es eine Basis
$ B _ i $ von $ \widetilde { \eig _ \alpha ( \lambda _ i ) } $ sodass $ { } _ { B _ i } M ( \alpha _ i ) _ { B _ i } $ Jordan-Normalform
hat. Es folgt mit $ B = ( B _ 1 , \dots , B _ r ) $ dass $ { } _ B M ( \alpha ) _ B = \begin { pmatrix }
{ } _ { B_ 1} M(\alpha _ 1)_ { B_ 1} & & \\
& \ddots & \\
& & { } _ { B_ r} M(\alpha _ r)_ { B_ r}
\end { pmatrix} $ Jordanmatrix ist.
\end { proof}
\end { satz}
2022-04-27 12:36:04 +02:00
\subsubsection { Berechnung der Jordan-Normalform}
\begin { enumerate}
2022-04-27 16:18:26 +02:00
\item Berechne $ \spec ( \alpha ) = \{ \lambda _ 1 , \dots , \lambda _ r \} $
\item
\begin { enumerate} [label=\alph * )]
\item Haupträume berechnen: Finde $ k $ minimal mit \[
\ker (\alpha - \lambda \id )^ { k+1} = \ker (\alpha - \lambda \id )^ k =: V_ \lambda
\]
\item Für $ 1 \le l \le k $ bestimme $ B _ l = \{ b _ 1 ^ l, \dots , b _ { r _ l } ^ l \} $ , sodass $ ( B _ 1 , \dots , B _ l ) $
Basis von $ \ker ( \alpha - \lambda \id ) ^ l $ .
\end { enumerate}
\item
\begin { enumerate} [label=\alph * )]
\item Setze zunächst $ v _ i ^ k = b _ i ^ k, i = 1 , \dots , r _ k $ . $ D _ k : = ( v _ 1 ^ k, \dots , v _ { r _ k } ^ k ) $ \\
Setze $ v _ i ^ { k - 1 } : = ( \alpha - \lambda \id ) ( v _ i ^ k ) \in \langle B _ { k - 1 } \rangle , i = 1 , \dots , r _ k $ \\
Ergänze gegebenenfalls $ ( v _ 1 ^ { k - 1 } , \dots , v _ { r _ k } ^ { k - 1 } ,
v_ { r_ { k+1} } ^ { k-1} , \dots , v_ { r_ { k-1} } ^ { k-1} )=:D_ { k-1} $ , sodass
$ \langle D _ { k - 1 } \rangle = \langle B _ { k - 1 } \rangle $
\item Führe 3a) iterativ aus. \\
Setze $ v _ i ^ { l - 1 } : = ( \alpha - \lambda \id ) ( v _ i ^ l ) , i = 1 , \dots , r _ l $ \\
Ergänze gegebenenfalls $ v _ 1 ^ { l - 1 } , \dots , v _ { r _ l } ^ { l - 1 } , v _ { r _ { l + 1 } } ^ { l - 1 } , \dots , v _ { r _ { l - 1 } } ^ { l - 1 }
=:D_ { l-1} $ , sodass $ \langle D_ { l-1} \rangle = \langle B_ { l-1} \rangle $
\end { enumerate}
\item Sei $ B _ \lambda = ( D _ 1 , \dots , D _ k ) \implies { } _ { B _ \lambda } M ( \alpha | _ { v _ \lambda } ) _ { B _ \lambda } $ hat
Jordan-Normalform mit Eigenwert $ \lambda $ .
\item Setze $ B = ( B _ { \lambda _ 1 } , \dots , B _ { \lambda _ r } ) \implies { } _ B M ( \alpha ) _ B $ hat Jordan-Normalform.
\end { enumerate}
2022-04-27 12:36:04 +02:00
2022-04-27 23:03:56 +02:00
\subsubsection { Beispiel}
\begin { align*}
2022-04-28 10:33:22 +02:00
& A= \begin { pmatrix}
1 & 0 & 2 & 3 & 4 \\
0 & 1 & 0 & -2 & -3 \\
0 & 0 & 1 & 0 & 2 \\
0 & 0 & 0 & 1 & -1 \\
0 & 0 & 0 & 0 & 1
\end { pmatrix}
, \chi _ A(\lambda ) = (\lambda - 1)^ 5 \\
& (A - 1\cdot I) = \begin { pmatrix}
0 & 0 & 2 & 3 & 4 \\
0 & 0 & 0 & -2 & -3 \\
0 & 0 & 0 & 0 & 2 \\
0 & 0 & 0 & 0 & -1 \\
0 & 0 & 0 & 0 & 0
\end { pmatrix}
\implies \ker (A - I) = \langle ( \underbrace { e_ 1, e_ 2} _ { B_ 1} ) \rangle \\
& (A-I)^ 2 = \begin { pmatrix}
0 & 0 & 0 & 0 & 1 \\
0 & 0 & 0 & 0 & 2 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0 & 0
\end { pmatrix}
\implies \ker ((A-I)^ 2) = \langle (\underbrace { e_ 1, e_ 2} _ { B_ 1} , \underbrace { e_ 3, e_ 4} _ { B_ 2} ) \rangle \\
& (A-I)^ 3 = 0 \implies \ker ((A-I)^ 3) =
\langle (\underbrace { e_ 1, e_ 2} _ { B_ 1} , \underbrace { e_ 3, e_ 4} _ { B_ 2} , \underbrace { e_ 5} _ { B_ 3} ) \rangle \\
& B_ 1 = (e_ 1, e_ 2), B_ 2 = (e_ 3, e_ 4), B_ 3 = (e_ 5)
2022-04-27 23:03:56 +02:00
\end { align*}
2022-04-28 10:33:22 +02:00
\begin { align*}
\begin { rcases}
v_ 1^ 3 = e_ 5
\end { rcases}
D_ 3 \\
\begin { rcases}
v_ 1^ 2 = (A-1I)(v_ 1^ 3) = \begin { pmatrix} -4 \\ -3 \\ 2 \\ -1 \\ 0\end { pmatrix} \\
v_ 2^ 2 = e_ 4
\end { rcases}
D_ 2 \\
\begin { rcases}
v_ 1^ 1 = (A - I)(v_ 1^ 2) = \begin { pmatrix} 1 \\ 2 \\ 0 \\ 0 \\ 0 \end { pmatrix} \\
v_ 2^ 1 = (A - I)(v_ 2^ 2) = \begin { pmatrix} 3 \\ -2 \\ 0 \\ 0 \\ 0 \end { pmatrix}
\end { rcases}
D_ 1
2022-04-27 23:03:56 +02:00
\end { align*}
\begin { align*}
2022-04-28 10:33:22 +02:00
(\overset { \mathrlap { \rotatebox { 30} { \scriptsize $ \in \ker ( A - I ) $ } } } { v_ 1^ 1}
\underset { \mathclap { \substack { \rotatebox { 180} { $ \curvearrowright $ } \\ A-I} } } { ,}
v_ 1^ 2
\underset { \mathclap { \substack { \rotatebox { 180} { $ \curvearrowright $ } \\ A-I} } } { ,}
v_ 1^ 3,
\overset { \mathrlap { \rotatebox { 30} { \scriptsize $ \in \ker ( A - I ) $ } } } { v_ 1^ 1}
\underset { \mathclap { \substack { \rotatebox { 180} { $ \curvearrowright $ } \\ A-I} } } { ,}
v_ 2^ 2) = B, { } _ B M(A)_ B =
\begin { pmatrix}
1 & 1 & 0 & 0 & 0 \\
0 & 1 & 1 & 0 & 0 \\
0 & 0 & 1 & 0 & 0 \\
0 & 0 & 0 & 1 & 1 \\
0 & 0 & 0 & 0 & 1
\end { pmatrix} \\
P =
\begin { pmatrix}
1 & 4 & 0 & 3 & 0 \\
2 & -3 & 0 & -2 & 0 \\
0 & 2 & 0 & 0 & 0 \\
0 & 1 & 0 & 0 & 1 \\
0 & 0 & 1 & 0 & 0
\end { pmatrix}
\implies P^ { -1} A P =
\begin { pmatrix}
\tl 1 & 1 & 0 & 0 & 0 \\
0 & 1 & 1 & 0 & 0 \\
0 & 0 & 1\br & 0 & 0 \\
0 & 0 & 0 & \tl 1 & 1 \\
0 & 0 & 0 & 0 & 1\br
\end { pmatrix}
2022-04-27 23:03:56 +02:00
\end { align*}
2022-04-28 10:33:22 +02:00
\chapter { Euklidische und Unitäre Vektorräume}
2022-05-01 23:06:12 +02:00
\subsubsection { Motivation}
Wir wollen Geometrie betreiben und Längen beziehungsweise Winkel messen können.
2022-04-28 18:22:39 +02:00
\subsubsection { Länge}
\begin { tikzpicture} [scale=4]
2022-04-28 23:58:50 +02:00
\draw [-latex, very thick] (0, 0) -- (1.3, 1);
\draw [dashed] (0, 0) -- (1.3, 0) -- (1.3, 1);
\node [below] at (0.65, 0) { $ x _ 2 - x _ 1 $ } ;
\node [right] at (1.3, 0.5) { $ y _ 2 - y _ 1 $ } ;
\node [below left] at (0, 0) { $ ( x _ 1 , y _ 1 ) $ } ;
\node [above right] at (1.3, 1) { $ ( x _ 2 , y _ 2 ) $ } ;
\draw (1.1, 0) -- (1.1, 0.2) -- (1.3, 0.2);
\draw [fill] (0, 0) circle [radius=0.02];
2022-04-28 18:22:39 +02:00
\end { tikzpicture}
\( \R ^ 2 : P _ 1 = ( x _ 1 , y _ 1 ) , P _ 2 = ( x _ 2 , y _ 2 ) \) \\
\( d ( P _ 1 , P _ 2 ) = \sqrt { ( x _ 2 - x _ 1 ) ^ 2 + ( y _ 2 - y _ 1 ) ^ 2 } = \lvert \vect { P _ 1 P _ 2 } \rvert \)
\subsubsection { Winkel}
\begin { tikzpicture} [scale=0.7]
2022-04-28 23:58:50 +02:00
\coordinate (a) at (0, 0);
\coordinate (b) at (5, 6);
\coordinate (c) at (8, 4);
\draw [fill] (a) circle [radius=0.07];
\draw [very thick, ->] (a) -- (b);
\draw [very thick, ->] (a) -- (c);
\node [below left] at (a) { $ p $ } ;
\node [right] at (b) { $ v _ 2 $ } ;
\node [right] at (c) { $ v _ 2 $ } ;
\draw pic [draw, thick, angle radius=3cm, pic text=$ \alpha $ ] { angle=c--a--b} ;
2022-04-28 18:22:39 +02:00
\end { tikzpicture} \\
$ v _ 1 = ( u _ 1 , w _ 1 ) , v _ 2 = ( u _ 2 , w _ 2 ) , v = ( u, w ) $ \\
$ \cos ( \alpha ) = \dfrac { u _ 1 u _ 2 + w _ 1 w _ 2 } { \lvert w _ 1 \rvert \lvert w _ 2 \rvert } $
$ \lvert v \rvert = \sqrt { u ^ 2 + w ^ 2 } $ \\
$ v _ 1 \cdot v _ 2 = u _ 1 u _ 2 + w _ 1 w _ 2 $ skalares Produkt \\
2022-04-28 23:58:50 +02:00
$ \implies d ( P _ 1 , P _ 2 ) = \sqrt { \vect { P _ 1 P _ 2 } \cdot \vect { P _ 1 P _ 2 } } , \cos ( \sphericalangle { v _ 1 v _ 2 } ) =
\dfrac { v_ 1 v_ 2} { \lvert v_ 1 \rvert \lvert v_ 2 \rvert } $
2022-04-28 10:33:22 +02:00
\section [Skalarprodukte und Hermitesche Formen] { Skalarprodukte und Hermitesche \\ Formen}
Zunächst sei \( \K = \R \)
\begin { defin}
Sei $ v $ ein $ \R $ -Vektorraum und $ \beta : V \times V \to \R $ .
$ \beta $ heißt
\begin { itemize}
2022-05-01 23:06:12 +02:00
\item \underline { bilinear} (Bilinearform) wenn $ \forall u, v, w \in V, \lambda \in \R $ :
2022-04-28 10:33:22 +02:00
\begin { align*}
\beta (u+v, w) = \beta (u, w) + \beta (v, w), \\
\beta (u, v+w)=\beta (u, v) + \beta (u, w), \\
\beta (\lambda u, v) = \lambda \beta (u, v) = \beta (u, \lambda v)
\end { align*}
\item \underline { symmetrisch} wenn $ \forall u, v \in V: \beta ( u, v ) = \beta ( v, u ) $
\item \underline { positiv definit} wenn $ \forall v \ V \setminus \{ 0 \} : \beta ( v, v ) > 0 $
\item \underline { skalares Produkt} wenn $ \beta $ symmetrisch, positiv definit (spd) und bilinear ist.
\end { itemize}
\end { defin}
\subsubsection { Bemerkung}
$ v = 0 \in V \implies 0 \cdot v = v \implies \beta ( v, v ) = \beta ( 0 \cdot v, v ) = 0 \cdot \beta ( v, v ) = 0 $
\subsubsection { Beispiele}
\begin { itemize}
2022-05-01 23:06:12 +02:00
\item Sei $ V = \R ^ n $ und $ v = ( v _ 1 , \dots , v _ n ) , w = ( w _ 1 , \dots , w _ n ) $ \\
$ \beta _ 1 ( v, w ) = \sum \limits _ { i = 1 } ^ n v _ 1 w _ 1 = v ^ Tw $ ist symmetrische positiv definite Bilinearform.
\item Sei $ \dim ( V ) = n $ und $ B = ( b _ 1 , \dots , b _ n ) $ Basis \\
Sei für $ v, w \in V: \begin { cases } { } _ B \Phi ( v ) = ( v _ 1 , \dots , v _ n ) \\
{ } _ B \Phi (w) = (w_ 1, \dots , w_ n)\end { cases} $ \\
$ \beta _ 2 ( v, w ) = \sum \limits _ { i = 1 } ^ n v _ i w _ i = \beta _ 1 ( { } _ B \Phi ( v ) , { } _ B \Phi ( w ) ) $ ist spd.
2022-04-28 10:33:22 +02:00
\item $ V = \R ^ 2 , v = \begin { pmatrix } v _ 1 \\ v _ 2 \end { pmatrix } ,
w= \begin { pmatrix} w_ 1\\ w_ 2\end { pmatrix} , A = \begin { pmatrix} 4 & -2 \\ -2 & 3 \end { pmatrix} $ \\
$ \beta _ 3 ( v, w ) = v ^ T A w \in \R $ \\
symmetrisch, weil
\[
\beta _ 3(v, w) = \beta _ 3(v, w)^ T = (v^ T A w)^ T = w^ T A^ T v = w^ T A v = \beta _ 3(w, v) \checkmark
\]
$ \beta _ 3 ( u, v ) = 4 v _ 1 w _ 1 - 2 v _ 1 w _ 2 - 2 v _ 2 w _ 1 + 3 v _ 2 w _ 2 \implies \beta ( v, v ) = ( 2 v _ 1 - v _ 2 ) ^ 2 + 2 v _ 2 ^ 2 = 0
\implies v_ 2 = 0 \implies (2v_ 1)^ 2 = 0 \implies v_ 1 = 0$
\item Sei $ a, b \in \R , a < b, V = \{ f: [ a, b ] \to \R : f \text { stetig } \} $ \\
Sei $ h \in V: h ( t ) > 0 \forall t \in [ a, b ] $
\begin { align*}
& \beta _ 4(f, g) = \int _ a^ b f(t) g(t) h(t) dt \text { bilinear, symmetrisch} \\
& \beta _ 4(f, f) = \int _ a^ b \lvert f(t) \rvert ^ 2 h(t) dt = 0 \implies f= 0
\end { align*}
\end { itemize}
\begin { defin}
Ein Vektorraum mit skalarem Produkt heißt \underline { Euklidischer Raum} .\\
2022-05-04 13:44:26 +02:00
Man schreibt oft $ u \cdot v, \inner uv $ anstatt $ \beta ( u, v ) $ .
2022-04-28 10:33:22 +02:00
\end { defin}
Nun sei $ \K = \C $
\begin { defin}
Sei $ V $ ein \C -Vektorraum und $ \beta : V \times V \to \C $ . $ \beta $ heißt \underline { hermitesche Form} wenn für
alle $ u, v, w \in V, \lambda \in \C $ :
\begin { enumerate} [label=\roman * )]
\item $ \beta ( u + v, w ) = \beta ( u, w ) + \beta ( v, w ) $
\item $ \beta ( \lambda u, v ) = \lambda \beta ( u, v ) $
\item $ \beta ( u, v ) = \overline { \beta ( u, v ) } $
\end { enumerate}
\end { defin}
\begin { lemma}
2022-05-04 13:44:26 +02:00
\label { theo:3.1.4}
2022-04-28 10:33:22 +02:00
Sei $ \beta $ hermitesche Form
\begin { enumerate} [label=\alph * )]
\item $ \beta ( u, v + w ) = \beta ( u, v ) + \beta ( u, w ) $
\item $ \beta ( u, \lambda v ) = \overline { \lambda } \beta ( u, v ) $
\item $ \beta ( u, u ) \in \R $
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item $ \beta ( u, v + w ) \overset { \text { iii } } { = } \overline { \beta ( v + w, u ) } \overset { \text { i } } { = }
\overline { \beta (v, u)} + \overline { \beta (w, u)} \overset { \text { iii} } { =} \beta (u, v) + \beta (u, w) \checkmark $
\item $ \beta ( u, \lambda v ) \overset { \text { iii } } { = } \overline { \beta ( \lambda v, u ) } \overset { \text { ii } } { = }
\overline { \lambda } \cdot \overline { \beta (v, u)} \overset { \text { iii} } { =} \overline { \lambda } \beta (u, v)$
\item $ z = \overline { z } \iff z \in \R $ \\
$ \beta ( u, u ) \overset { \text { iii } } { = } \overline { \beta ( u, u ) } \implies \beta ( u, u ) \in \R $
\end { enumerate}
\end { proof}
\end { lemma}
\begin { defin}
Sei $ \beta $ hermitesche Form.
\begin { itemize}
2022-05-01 23:06:12 +02:00
\item $ \beta $ heißt \underline { positiv definit} wenn $ \forall v \in V \setminus \{ 0 \} :
2022-04-28 10:33:22 +02:00
\underbrace { \beta (v, v)} _ { \in \R } > 0$
\item Eine positiv definite hermitesche Form heißt \underline { skalares Produkt}
2022-05-01 23:06:12 +02:00
\item Ein komplexer Vektorraum mit einem skalaren Produkt heißt \underline { unitärer} \underline { Raum} .
2022-04-28 10:33:22 +02:00
\end { itemize}
\end { defin}
\subsubsection { Beispiel}
$ V = \C ^ n, u = ( u _ 1 , \dots , u _ n ) , v = ( v _ 1 , \dots , v _ n ) $ \\
$ u \cdot v = \sum \limits _ { i = 1 } ^ n u _ i \overline { v _ i } $ ist skalares Produkt
\par
2022-05-01 23:06:12 +02:00
Wir zeigen nun, dass jeder euklidische Vektorraum in einen unitären Vektorraum eingebettet werden kann.
2022-04-28 10:33:22 +02:00
\begin { defin}
Sei $ V $ ein \R -Vektorraum.
\begin { align*}
& V_ \C := \{ (u, v): u, v\in V \} \text {
[Schreibe $ ( u, v ) = : u + \overset { \mathclap { \substack { i ^ 2 = - 1 \\ | } } } { i } \cdot v $ ]} \\
& (u_ 1, v_ 1) + (u_ 2, v_ 2) := (u_ 1 + u_ 2, v_ 1 + v_ 2) \text { Addition} \\
& \lambda = (\gamma + i \delta ) \in \C , \lambda \cdot (u, v) = (\gamma u - \delta v, \delta u + \gamma v)
\text { skalare Multiplikation} \\
& \lambda (u + iv) = (\gamma + i \delta ) (u + iv) = \gamma u + i \gamma v + i \delta u - \delta v \\
& \; \; =(\gamma u - \delta v) + i (\gamma v + \delta u) \\
& \implies (V_ \C , +, \cdot ) \text { ist \C -Vektorraum}
\end { align*}
$ V _ \C $ heißt die \underline { komplexe Erweiterung von V} .
\end { defin}
Einbettung
\[
\iota : \begin { cases} V \to V_ \C \\ v \mapsto (v, 0) = v + i\cdot 0 \end { cases}
\]
\begin { lemma}
\leavevmode
\begin { enumerate} [label=\alph * )]
\item $ V $ ist durch die Einbettung $ v \overset { \iota _ V } { \mapsto } ( v, 0 ) $ \dq in $ V _ \C $ enthalten\dq , das heißt
2022-05-01 23:06:12 +02:00
$ \iota _ V $ ist injektiv.
2022-04-28 10:33:22 +02:00
\item Seien $ V, W $ \R -Vektorräume, $ \alpha \in \Hom _ \R ( V, W ) $ . Dann existiert eine eindeutige komplexe
2022-05-01 23:06:12 +02:00
Erweiterung $ \alpha _ \C \in \Hom _ \C ( V _ \C , W _ \C ) $ mit
\[
\forall v \in V: \alpha _ \C (\iota _ V(v)) = \iota _ W(\alpha (v))
\]
2022-04-28 10:33:22 +02:00
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
\item $ \iota _ V $ ist linear \checkmark \\
$ \iota _ V ( v ) = ( 0 , 0 ) \implies v = 0 $ (injektiv)
\item Sei $ \alpha _ \C $ so eine Fortsetzung \\
$ \alpha _ \C ( u + iv ) = \alpha _ \C ( u ) + i \alpha _ \C ( v ) = \alpha ( u ) + i \alpha ( v ) $ \\
$ \alpha _ \C ( ( u, v ) ) = ( \alpha ( u ) , \alpha ( v ) ) $ Dadurch ist $ \alpha _ \C $ eindeutig bestimmt!
\end { enumerate}
\end { proof}
\end { lemma}
\begin { defin}
$ \alpha _ \C $ heißt die komplexe Forsetzung von $ \alpha $
\end { defin}
2022-05-01 23:06:12 +02:00
Auch skalare Produkte können eindeutig fortgesetzt werden.
\begin { satz}
2022-05-04 13:44:26 +02:00
Sei $ ( V, \beta ) $ euklidischer \R -Vektorraum. Dann existiert genau eine hermitesche Form $ \beta _ \C $ auf $ V _ \C $ ,
welche $ \beta $ fortsetzt:
2022-05-01 23:06:12 +02:00
\[
\forall v, w \in V: \beta _ \C (\iota _ V(v), \iota _ V(w)) = \beta (v, w)
\]
\begin { proof}
Ein solches $ \beta _ \C $ muss erfüllen, dass
\begin { align*}
2022-05-04 13:44:26 +02:00
\beta _ \C (u_ 1 + i v_ 1, u_ 2 + i v_ 2) & = \beta _ \C (u_ 1, u_ 2 + i v_ 2) + i \beta _ \C (v_ 1, u_ 2+iv_ 2) \\
& = \beta _ \C (u_ 1, u_ 2) + i \beta _ \C (v_ 1, u_ 2)
2022-05-04 14:28:04 +02:00
\underset { \mathclap { \substack { | \\ \text { \ref { theo:3.1.4} b)} } } } { -}
2022-05-05 11:26:11 +02:00
i \beta _ \C (u_ 1, v_ 2) + \beta _ \C (v_ 1, v_ 2) \\
2022-05-01 23:06:12 +02:00
& = \beta (u_ 1, u_ 2) + \beta (v_ 1, v_ 2) + i(\beta (v_ 1, u_ 2) - \beta (u_ 1, v_ 2))
\end { align*}
und dadurch ist $ \beta _ \C $ eindeutig bestimmt.
\end { proof}
\end { satz}
\begin { satz} [Cauchy-Schwarz]
\label { theo:3.1.10}
Für $ u, v $ in einem euklidischen/unitären Vektorraum $ V $ gilt
\[
2022-05-04 13:44:26 +02:00
\lvert \inner uv \rvert ^ 2 \le \inner uu \inner vv
2022-05-01 23:06:12 +02:00
\]
Gleichheit gilt genau wenn $ u, v $ linear abhängig sind.
\begin { proof}
$ v = 0 \checkmark $ \\
2022-05-04 13:44:26 +02:00
$ v \neq 0 \implies \inner vv > 0 $ \\
2022-05-01 23:06:12 +02:00
Sei $ \lambda \in \C \implies $
\begin { align*}
2022-05-04 13:44:26 +02:00
0 & \le \inner { u - \lambda v} { u - \lambda v } \\
& = \inner u { u - \lambda v} - \lambda \inner v { u-\lambda v} \\
& = \inner uu - \overline { \lambda } \inner uv - \lambda \inner vu +
\underbrace { \lambda \overline { \lambda } } _ { =\lvert \lambda \rvert ^ 2} \inner vv
2022-05-01 23:06:12 +02:00
\end { align*}
2022-05-04 13:44:26 +02:00
Sei $ \lambda : = \dfrac { \inner uv } { \inner vv } , \overline { \lambda } =
\dfrac { \overline { \inner uv } } { \overline { \inner vv } }
=\dfrac { \inner vu} { \inner vv} $ , so folgt
2022-05-01 23:06:12 +02:00
\begin { align*}
2022-05-04 13:44:26 +02:00
0 & \le \inner uu - \frac { \inner vu \inner uv } { \inner vv }
- \frac { \inner uv \inner vu } { \inner vv } +
2022-05-04 14:14:57 +02:00
\frac { \cancel { \inner vv } \inner uv \inner vu }
{ \inner { v} { v} ^ { \cancel { 2} } } \\
& = \inner uu - \frac { \lvert \inner uv \rvert ^ 2} { \inner vv } \\
& \implies 0 \le \inner uu \inner vv - \lvert \inner uv \rvert ^ 2 \\
& \implies \inner uu \inner vv \ge \lvert \inner uv \rvert ^ 2.
2022-05-01 23:06:12 +02:00
\end { align*}
2022-05-04 14:14:57 +02:00
Gleichheit gilt, wenn $ \inner { u - \lambda v } { u - \lambda v } = 0 $ , also $ u, v $ linear abhängig.
2022-05-01 23:06:12 +02:00
\end { proof}
\end { satz}
\begin { defin}
Man nennt
\begin { itemize}
2022-05-04 14:14:57 +02:00
\item $ \norm v : = \sqrt { \inner vv } $ die \underline { Länge} oder die \underline { Norm} von
2022-05-01 23:06:12 +02:00
$ v \in V $ .
2022-05-04 14:14:57 +02:00
\item $ \cos ( \sphericalangle v w ) : = \dfrac { \inner vw } { \norm v \norm w } $ der
2022-05-04 13:44:26 +02:00
Kosinus des \underline { Winkels} zwischen $ v, w \in V $ . \\
(Wegen Satz \ref { theo:3.1.10} ist $ \cos ( \sphericalangle v w ) \le 1 $ und damit auch $ \sphericalangle v w $
wohldefiniert!)
2022-05-04 14:14:57 +02:00
\item $ v \in V $ heißt \underline { normiert} wenn $ \norm v = 1 $
2022-05-01 23:06:12 +02:00
\end { itemize}
\end { defin}
2022-05-04 13:44:26 +02:00
\begin { satz}
2022-05-04 14:14:57 +02:00
$ \norm \cdot $ ist eine \underline { Norm} , das heißt
2022-05-04 13:44:26 +02:00
\begin { enumerate} [label=\alph * )]
2022-05-04 14:14:57 +02:00
\item $ \norm v \ge 0 $
\item $ \norm v = 0 \implies v = 0 $
\item $ \norm { \lambda v } = \lvert \lambda \rvert \norm v $
\item $ \norm { v + w } \le \norm v + \norm w $ (Dreiecksungleichung)
2022-05-04 13:44:26 +02:00
\end { enumerate}
\begin { proof}
\begin { enumerate} [label=\alph * )]
2022-05-04 14:14:57 +02:00
\item $ \norm v = ( \underbrace { \inner vv } _ { \in [ 0 , \infty ) } ) ^ \frac 12 \ge 0 $
\item $ \norm v = 0 \implies \norm { v } ^ 2 = 0 \implies \inner vv = 0 \implies v = 0 $
\item $ \norm { \lambda v } ^ 2 = \inner { \lambda v } { \lambda v } = \norm { \lambda } ^ 2
\inner vv = \lvert \lambda \rvert ^ 2 \norm { v} ^ 2$
2022-05-04 13:44:26 +02:00
\item \begin { align*}
2022-05-04 14:14:57 +02:00
\norm { u + v} ^ 2 & = \inner { u + v} { u +v} \\
& = \inner u{ u+v} + \inner v{ u+v} = \inner uu + \inner uv +
\inner vu + \inner v, v \\
& = \inner uu + \inner uv + \overline { \inner uv } + \inner vv \\
& = \inner uu + 2 \Re (\inner uv ) + \inner vv \\
& \le \inner uu + 2 \lvert \inner uv \rvert + \inner vv \\
& \le \inner uu 2 \norm u \norm v + \inner vv \\
& = \norm { u} ^ 2 + 2 \norm u \norm v + \norm { v} ^ 2
= (\norm u + \norm v )^ 2
2022-05-04 13:44:26 +02:00
\end { align*}
\end { enumerate}
\end { proof}
\end { satz}
\begin { defin}
2022-05-04 14:28:04 +02:00
Sei $ V = ( v _ 1 , \dots , v _ k ) $ mit $ \forall i \in [ k ] : v _ i \neq 0 $ .
2022-05-04 13:44:26 +02:00
\begin { itemize}
2022-05-04 14:28:04 +02:00
\item $ v, w $ heißen \underline { orthogonal} , wenn $ \inner vw = 0 $ [schreibe auch $ v \bot w $ ]
\item $ V $ heißt \underline { Orthogonalsystem} (OS), wenn
2022-05-04 13:44:26 +02:00
$ \forall i, j \in [ k ] , i \neq j: v _ i \bot v _ j $
2022-05-04 14:28:04 +02:00
\item $ V $ heißt \underline { Orthonormalsystem} (ONS), wenn $ V $ ein Orthogonalsystem ist
und $ \forall i \in [ k ] : \norm { v _ i } = 1 $
\item $ V $ heißt \underline { Orthogonalbasis} (OB), wenn $ V $ ein Orthogonalsystem und eine Basis ist.
\item $ V $ heißt \underline { Orthonormalbasis} (ONB), wenn $ V $ ein Orthonormalsystem und eine Basis ist.
2022-05-04 13:44:26 +02:00
\end { itemize}
\end { defin}
\begin { satz}
Sei $ ( v _ 1 , \dots , v _ k ) $ ein Orthogonalsystem. Dann ist $ ( v _ 1 , \dots , v _ k ) $ linear \\ unabhängig.
\begin { proof}
2022-05-04 14:28:04 +02:00
Angenommen $ \lambda _ 1 v _ 1 + \dots + \lambda _ k v _ k = 0 $
\[
\forall i \in [k]: 0 = \lambda _ 1 \underbrace { \inner { v_ 1} { v_ i} } _ { =0} + \dots +
2022-05-04 14:14:57 +02:00
\lambda _ i \underbrace { \inner { v_ i} { v_ i} } _ { =0} + \dots +
\lambda _ k \underbrace { \inner { v_ k} { v_ i} } _ { =0}
2022-05-04 14:28:04 +02:00
= \lambda _ i \underbrace { \norm { v_ i} ^ 2} _ { \neq 0}
\]
2022-05-04 13:44:26 +02:00
$ \implies \lambda _ i = 0 $
\end { proof}
\end { satz}
\begin { satz}
Sei $ B = ( b _ 1 , \dots , b _ n ) $ Orthonormalbasis von $ V, n \in \mathbb { N } \cup \{ \infty \} $ .
2022-05-05 09:41:32 +02:00
Dann gilt für alle $ v, w \in V $ und $ ( \lambda _ 1 , \dots , \lambda _ n ) = { } _ B \Phi ( v ) , ( \mu _ 1 , \dots , \mu _ n )
2022-05-04 13:44:26 +02:00
= { } _ B\Phi (w)$ :
\[
\inner vw = \sum _ { i=1} ^ n \lambda _ i \overline { \mu _ i}
\]
2022-05-04 14:14:57 +02:00
Weiters gilt $ \lambda _ i = \inner { v } { b _ i } , b _ i ^ * ( v ) = \inner v { b _ i } $
2022-05-04 13:44:26 +02:00
\begin { proof}
\begin { align*}
& \inner { b_ i} { b_ j} = \delta _ { ij} \\
& \begin { rcases} v = \sum _ { i=1} ^ n \lambda _ i b_ i \\
w = \sum _ { i=1} ^ n \mu _ i b_ i\end { rcases} \implies \inner vw
= \sum _ { i, j = 1} ^ n \inner { \lambda _ i b_ i} { \mu _ j b_ j} = \sum _ { i, j = 1} ^ n \lambda _ i \overline { \mu _ j}
\inner { b_ i} { b_ j} = \sum _ { i=1} ^ n \lambda _ i \overline { \mu _ i} \\
& { } _ B \Phi (b_ i) = (0, \dots , \overset { i} { 1} , \dots , 0) \implies \inner v{ b_ i} = \sum _ { j=1} ^ n \lambda _ j
\delta _ { 1j} = \lambda _ 1
\end { align*}
\end { proof}
\end { satz}
2022-05-05 09:41:32 +02:00
\begin { satz} [Gram-Schmidt Orthonormalisierungsverfahren]
\label { theo:3.1.16}
Sei $ ( a _ 1 , a _ 2 , \dots ) \subseteq V $ linear unabhängig. Dann existiert genau ein Orthonormalsystem
$ ( b _ 1 , b _ 2 , \dots ) $ mit
\begin { enumerate} [label=\roman * )]
\item $ \forall k: \langle a _ 1 , \dots , a _ k \rangle = \langle b _ 1 , \dots b _ k \rangle = : U _ k $
\item Die Basistransformationsmatrix $ M _ k $ zwischen der Basen $ ( a _ 1 , \dots , a _ k ) $ und $ ( b _ 1 , \dots , b _ k ) $
von $ U _ k $ hat positive Determinante.
\end { enumerate}
\begin { proof}
$ b _ 1 , b _ 2 , \dots $ werden induktiv definiert.
\begin { itemize}
2022-05-05 11:26:11 +02:00
\item $ b _ 1 = \frac { a _ 1 } { \norm { a _ 1 } } , M _ 1 = \begin { pmatrix } \frac { 1 } { \norm { a _ 1 } } \end { pmatrix } $ \\
2022-05-05 09:41:32 +02:00
Eindeutigkeit: Sei $ \tilde b _ 1 $ mit i), ii) $ \implies \tilde b _ 1 = c \cdot a _ 1 , 1 = \norm { \tilde b _ 1 }
= \norm { c \cdot a_ 1} = \lvert c \rvert \norm { a_ 1} $ \\
$ \implies \lvert c \rvert = \dfrac { 1 } { \norm { a _ 1 } } \implies \tilde M _ k = ( c ) $
\item $ ( b _ 1 , \dots , b _ n ) $ schon konstruiert mit i), ii) \\
Sei $ c _ { n + 1 } : = a _ { n + 1 } - \sum \limits _ { j = 1 } ^ n \inner { a _ { n + 1 } } { b _ j } b _ j $
\begin { align*}
& \forall i \in [n]: \inner { c_ { n+1} } { b_ i} = \inner { a_ { n+1} } { b_ i} -
\sum \limits _ { j=1} ^ n \inner { a_ { n+1} } { b_ j} \underbrace { \inner { b_ j} { b_ i} } _ { \delta _ { ij} } \\
& = \inner { a_ { n+1} } { b_ i}
- \inner { a_ { n+1} } { b_ i} = 0 \implies c_ { n+1} \bot \langle b_ 1, \dots , b_ n \rangle
\end { align*}
$ b _ { n + 1 } = \dfrac { c _ { n + 1 } } { \norm { c _ { n + 1 } } } \implies ( b _ 1 , \dots , b _ { n + 1 } ) $ Orthonormalsystem mit \\
$ \langle b _ 1 , \dots , \rangle = \langle a _ 1 , \dots , a _ n \rangle $
\begin { align*}
& b_ 1 = \mu _ { 11} a_ 1 \\
& b_ 2 = \mu _ { 21} a_ 1 + \mu _ { 22} a_ 2 \\
& b_ 3 = \mu _ { 31} a_ 1 + \mu _ { 32} a_ 2 + \mu _ { 33} a_ 3 \\
& \vdots \\
& b_ n = \mu _ { n1} a_ 1 + \dots + \mu _ { nn} a_ n \\
& b_ { n+1} = \mu _ { n+1 1} a_ 1 + \dots + \mu _ { n+1 n} a_ n + \dfrac { 1} { \norm { c_ { n+1} } } a_ { n+1} \\
& \implies \det (\mu _ { ij} ) = \det (M_ n) \cdot \dfrac { 1} { \norm { c_ { n+1} } } > 0
\end { align*}
Eindeutigkeit: Sei $ \tilde b _ { n + 1 } $ ein weiterer Vektor mit i), ii)
\begin { align*}
& \implies \tilde b_ { n+1} = \mu _ 1 b_ 1 + \dots + \mu _ n b_ n + \mu b_ { n+1} \\
& \forall i \in [n]: 0 = \inner { \tilde b_ { n+1} } { b_ i} = \mu _ i \implies \tilde b_ { n+1} = \mu b_ { n+1} \\
& 1 = \norm { \tilde b_ { n+1} } = \lvert \mu \rvert \norm { b_ { n+1} } = \lvert \mu \rvert \implies \lvert \mu
\rvert = 1 \\
& \det (\tilde M_ { n+1} ) = \det (M_ n) \cdot \mu > 0 \implies \mu = 1 \land \tilde b_ { n+1} = b_ { n+1}
\end { align*}
\end { itemize}
\end { proof}
\end { satz}
2022-05-05 11:26:11 +02:00
\begingroup
\allowdisplaybreaks
\subsubsection { Veranschaulichung im $ \R ^ 2 $ }
\begin { tikzpicture} [scale=3]
\tikzmath {
\a 1 = 3;
\a 2 = 1;
\a 3 = 2;
\a 4 = 2;
\norma 1 = sqrt(\a 1^ 2 + \a 2^ 2);
\normeda 1 = \a 1 / \norma 1;
\normeda 2 = \a 2 / \norma 1;
\innerprod = \normeda 1 * \a 3 + \normeda 2 * \a 4;
\c 1 = \a 3 - (\innerprod * \normeda 1);
\c 2 = \a 4 - (\innerprod * \normeda 2);
\t 1 = (\innerprod * \normeda 1);
\t 2 = (\innerprod * \normeda 2);
\normc = sqrt(\c 1^ 2 + \c 2^ 2);
\b 3 = \c 1 / \normc ;
\b 4 = \c 2 / \normc ;
}
\draw [->] (0, 0) --node[below]{ $ a _ 1 $ } (\a 1, \a 2);
\draw [->] (0, 0) --node[above]{ $ a _ 2 $ } (\a 3, \a 4);
\draw [->, blue, thick] (0, 0) --node[below right]{ $ \inner { a _ 2 } { b _ 1 } b _ 1 $ } (\t 1, \t 2);
\draw [->, violet, very thick] (0, 0) --node[below right]{ $ \frac { a _ 1 } { \norm { a _ 1 } } = :b _ 1 $ } (\normeda 1, \normeda 2);
\draw [->, magenta, thick] (0, 0) --node[left]{ $ c _ 2 : = a _ 2 - \inner { a _ 2 } { b _ 1 } b _ 1 $ } (\c 1, \c 2);
\draw [->, teal, very thick] (0, 0) --node[right]{ $ \frac { c _ 2 } { \norm { c _ 2 } } = :b _ 2 $ } (\b 3, \b 4);
\end { tikzpicture}
2022-05-05 09:41:32 +02:00
\subsubsection { Beispiel}
$ V = \R ^ 4 , a _ 1 = \begin { pmatrix } 4 \\ 2 \\ - 2 \\ - 1 \end { pmatrix } ,
a_ 2 = \begin { pmatrix} 2 \\ 2 \\ -4 \\ -5 \end { pmatrix} ,
a_ 3 = \begin { pmatrix} 0 \\ 8 \\ -2 \\ -5 \end { pmatrix} $
\begin { align*}
& b_ 1 = \frac { 1} { \norm { a_ 1} } a_ 1 ,\; \norm { a_ 1} = (4^ 2 + 2^ 2 + 2^ 2 + 1^ 2)^ { \frac 12} = \sqrt { 25} = 5 \\
& = \frac 15 \begin { pmatrix} 4 \\ 2 \\ -2 \\ -1 \end { pmatrix} ,\;
\inner { a_ 2} { b_ 1} = \frac 15 \begin { pmatrix} 2 \\ 2 \\ -4 \\ -5 \end { pmatrix} \cdot
\begin { pmatrix} 4 \\ 2 \\ -2 \\ -1 \end { pmatrix} = \frac 15 (8 + 4 + 8 + 5)^ \frac 12 = \frac { 25} 5 \\
& c_ 2 = a_ 2 - \underbrace { \inner { a_ 2} { b_ 1} } _ 5 b_ 1 = \begin { pmatrix} 2 \\ 2 \\ -4 \\ -5 \end { pmatrix} -
\begin { pmatrix} 4 \\ 2 \\ -2 \\ -1 \end { pmatrix} = \begin { pmatrix} -2 \\ 0 \\ -2 \\ -4 \end { pmatrix} \\
& \norm c_ 2 = (4 + 4 + 16) = \sqrt { 24} \\
& \implies b_ 2 = \frac { 1} { \sqrt { 24} } \begin { pmatrix} -2 \\ 0 \\ -2 \\ -4 \end { pmatrix} \\
& c_ 3 = a_ 3 - \inner { a_ 3} { b_ 1} b_ 1 - \inner { a_ 3,b_ 2} b_ 2 = \dots =
\begin { pmatrix} -2 \\ 6 \\ 2 \\ 0\end { pmatrix} \\
& \norm { c_ 3} = (4 + 36 + 4)^ \frac 12 = \sqrt { 44} \\
& \implies b_ 3 = \frac 1{ \sqrt { 44} } \begin { pmatrix} -2 \\ 6 \\ 2 \\ 0 \end { pmatrix}
\end { align*}
2022-05-05 11:26:11 +02:00
\endgroup
2022-05-05 09:41:32 +02:00
\begin { satz}
Sei $ V $ euklidischer/unitärer Vektorraum mit höchstens abzählbarer Dimension.
Dann kann jedes Orthonormalsystem zu einer Orthogonalbasis von $ V $ ergänzt werden.
\begin { proof}
Sei $ ( b _ 1 , \dots , b _ k ) $ ein Orthonormalsystem, $ ( b _ 1 , \dots , b _ k, a _ { k + 1 } , \dots ) $ eine Basis.
Satz \ref { theo:3.1.16} $ \implies \exists b _ { k + 1 } , b _ { k + 2 } , \dots $ mit $ ( b _ 1 , \dots , b _ k, b _ { k + 1 } , \dots ) $
Orthonormalbasis.
\end { proof}
\end { satz}
2022-04-12 12:48:05 +02:00
\end { document}