Add last missing content for KW23

This commit is contained in:
Anton Mosich 2022-06-09 18:25:13 +02:00
parent 7333c8b318
commit b158a0bc33
Signed by: Flugschwein
GPG Key ID: 9303E1C32E3A14A0
1 changed files with 194 additions and 62 deletions

View File

@ -3936,26 +3936,128 @@ Wir haben eine echte Verallgemeinerung.
A A^\dagger A = U^T \Sigma \underbrace{V V^T}_I \Sigma^\dagger \underbrace{U U^T}_I \Sigma V
= U^T \underbrace{\Sigma \Sigma^\dagger \Sigma}_\Sigma V = U^T \Sigma V = A
\]
\item[$\impliedby$:] Steht noch aus
% \begin{itemize}
% \item \begin{equation} \label{eq:3.6.3.1}
% \begin{aligned}
% \ker(\alpha) = \ker(\alpha^\dagger \circ \alpha) && \im(\alpha) = \im(\alpha \circ \alpha^\dagger) \\
% \ker(\alpha^\dagger) = \ker(\alpha \circ \alpha^\dagger) && \im(\alpha^\dagger) = \im(\alpha^\dagger \circ \alpha)
% \end{aligned}
% \end{equation}
% \tl UE\br\,:
% $\ker(\alpha) \subseteq \ker(\alpha^\dagger \circ \alpha) \subseteq \ker(\alpha \circ \alpha^\dagger
% \circ \alpha) = \ker(\alpha) \implies \ker(\alpha) = \ker(\alpha \circ \alpha^\dagger \circ \alpha)$
% \item $\nu := \alpha^\dagger \circ \alpha$ ist Orthogonalprojektion auf $\ker(\alpha)^\bot$
% \item $\nu$ selbstadjungiert $\implies \ker(v) \bot \im(v)$
% \item $\nu \circ \nu = \alpha^\dagger \circ \underbrace{\alpha \circ \alpha^\dagger \circ \alpha}_\alpha
% = \alpha^\dagger \circ \alpha = \nu$
% \item $\forall u \in \im(\nu), v \in V$: \[
% \inner{\nu(v) - v}u = \inner{\nu(v) - v}{\nu(w)} =
% \inner{\nu^2(v) - \nu(v)}{w} = \inner{0}{w} = 0
% \]
% \end{itemize}
\item[$\impliedby$:]
\begin{itemize}
\item Sei $\alpha \in \Hom(V, W), \alpha^\dagger \in \Hom(W, V)$
\begin{equation} \label{eq:3.6.3.1}
\begin{aligned}
\ker(\alpha) = \ker(\alpha^\dagger \circ \alpha) & &
\im(\alpha) = \im(\alpha \circ \alpha^\dagger) \\
\ker(\alpha^\dagger) = \ker(\alpha \circ \alpha^\dagger) & &
\im(\alpha^\dagger) = \im(\alpha^\dagger \circ \alpha)
\end{aligned}
\end{equation}
\tl UE\br\,:
$\ker(\alpha) \subseteq \ker(\alpha^\dagger \circ \alpha) \subseteq \ker(\alpha \circ \alpha^\dagger
\circ \alpha) = \ker(\alpha) \implies \ker(\alpha) = \ker(\alpha \circ \alpha^\dagger \circ \alpha)$
\item $\nu := \alpha^\dagger \circ \alpha$ erfüllt $\nu \circ \nu$ und ist selbstadjungiert
? für $\nu' := \alpha \circ \alpha^\dagger$ \\
$\implies \underbrace{\ker(\nu)}_{=\ker(\alpha)} \bot \im(\nu)$
[Sei $v\in \ker(\nu), w = \nu(v) \in \im(\nu) \implies \inner vw = \inner{\nu(v)}{w} = 0$] \\
$\implies$
\begin{enumerate}[label=\alph*)]
\item $\nu(v) \in \im(\nu)$
\item $\forall u \in \im(\nu), v \in V:$
\begin{align*}
\inner{\nu(v) - v}{u} & = \inner{\nu(v) - v}{\nu(w)} = \inner{\nu^2(v) - \nu(v)}{w} \\
& = \inner{\nu(v) - \nu(v)}{w} = 0
\end{align*}
\end{enumerate}
$\implies (b_1, \dots, b_n)$ ONB mit $\langle b_{r+1}, \dots, b_n \rangle_V = \ker(\nu) =
\ker(\alpha)$
\begin{align*}
& \sum_{i=1}^n \lambda_i b_i & & \overset{\nu}{\mapsto} \sum_{i=1}^r \lambda_i b_i
\text{[$\nu$ ist orthogonale Projektion auf $\ker(\alpha)^\bot$]} \\
\text{Analog:} & \sum_{i=1}^m \mu_i b_i' & & \overset{\nu'}{\mapsto} \sum_{i=1}^r \mu_i b_i'
\text{[$\nu'$ ist orthogonale Projektion auf $\im(\alpha)$]} \\
\end{align*}
\[
\implies {}_B M(\alpha^\dagger \circ \alpha)_B =
\left(\begin{smallmatrix}
1 \\
& \ddots \\
& & 1 \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right),\; {}_{B'} M(\alpha \circ \alpha^\dagger)_{B'} =
\left(\begin{smallmatrix}
1 \\
& \ddots \\
& & 1 \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right)
\]
\begin{equation}
\label{eq:3.6.3.2}
\begin{split}
\implies
\underbrace{\left(\begin{smallmatrix}
1 \\
& \ddots \\
& & 1 \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right)}_n &= {}_B M(\alpha^\dagger)_{B'} \cdot {}_{B'} M(\alpha)_B = \\
&=
\begin{pmatrix}
a_{11}^\dagger & \dots & a_{1m}^\dagger \\
\vdots & & \vdots \\
a_{n1}^\dagger & \dots & a_{nm}^\dagger
\end{pmatrix}
\underbrace{\left.\left(\begin{smallmatrix}
s_1 \\
& \ddots \\
& & s_r \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right)\right\}}_n \scriptstyle{m}
\end{split}
\end{equation}
\begin{align*}
\underbrace{
\left(\begin{smallmatrix}
1 \\
& \ddots \\
& & 1 \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right)
}_m & = {}_{B'} M(\alpha)_B \cdot {}_B M(\alpha^\dagger)_{B'} = \\
& =\scriptstyle{m}\underbrace{\left\{\left(\begin{smallmatrix}
s_1 \\
& \ddots \\
& & s_r \\
& & & 0 \\
& & & & \ddots \\
& & & & & 0
\end{smallmatrix}\right)\right.}_n
\begin{pmatrix}
a_{11}^\dagger & \dots & a_{1m}^\dagger \\
\vdots & & \vdots \\
a_{n1}^\dagger & \dots & a_{nm}^\dagger
\end{pmatrix}
\end{align*}
Es gilt $\ker(\alpha^\dagger) = \ker(\nu') = \im(\alpha)^\bot
= \langle b_{r+1}', \dots, b_r' \rangle \implies a^\dagger_{i\_} = 0 \forall i > r$
\[
\implies {}_B M(\alpha^\dagger)_{B'} =
\begin{pmatrix}
\begin{smallmatrix}
a_{11}^\dagger & \dots & a_{1r}^\dagger \\
\vdots & & \vdots \\
a_{r1}^\dagger & \dots & a_{rr}^\dagger
\end{smallmatrix} & 0 \\
0 & 0
\end{pmatrix}
\text{ und } a_{ij}^\dagger = \delta_{ij} \frac{1}{s_i} \text{ wegen \ref{eq:3.6.3.2}}
\]
\end{itemize}
\end{itemize}
\end{proof}
@ -3999,7 +4101,9 @@ $w = \sum_{i=1}^n \mu_i b_i'$
\norm{\alpha(v) - w}^2 = \norm{\sum_{i=1}^r s_i \lambda_i b_i' - \sum_{i=1}^m \mu_i b_i'}^2 =
\sum_{i=1}^r (s_i \lambda_i - \mu_i)^2 + \sum_{i = r+1}^m \mu_i^2
\]
Wird minimal wenn $\lambda_i = \frac{\mu_i}{s_i}, i \in [r]$, insbesondere für $v = \alpha^\dagger(w)$
Wird minimal wenn $\lambda_i = \frac{\mu_i}{s_i}, i \in [r]$, das heißt das optimale $v$ ist durch
$v^\dagger = \alpha^\dagger(w)$ gegeben.
$\left[\text{Alle optimalen durch }v^\dagger + \sum_{j=r+1}^m \mu_j^2 = L(\alpha^* \alpha, \alpha^*(w))\right]$
\begin{satz}
Sei $\alpha \in \homk(V, W), \K \in \{\R,\C\}, V, W$ endlich dimensional.
@ -4010,6 +4114,16 @@ Wird minimal wenn $\lambda_i = \frac{\mu_i}{s_i}, i \in [r]$, insbesondere für
Alle Vektoren mit dieser Eigenschaft erfüllen die\\ \underline{Normalgleichungen}
$\ontop{\alpha^* \alpha(v) = \alpha^*(w)}{A^* A x = A^* b}$
\end{satz}
\begin{proof}
Angenommen $L(A, b) \neq \emptyset$. $\to$ Suche $v \in L(A, b)$ mit minimaler Norm:
Sei $w \in \im(\alpha) \implies w = \sum_{j=1}^r \mu_j b_j'$
\[
\implies L(\alpha, w) = \left\{ \sum_{j=1}^r \frac{\mu_j}{s_j} b_j + \sum_{j=r+1}^n \lambda_j b_j:
\lambda_{r+1}, \dots, \lambda_n \in \K\right\}
\]
Minimale Norm, wenn $\lambda_{r+1}, \dots, \lambda_n = 0$ das heißt für
$v = \sum_{i=1}^r \frac{\mu_i}{s_i} b_i = \alpha^\dagger(w)$
\end{proof}
\begin{satz}
Sei $\alpha \in \Hom(V, W), w \in \im(\alpha)$.
@ -4019,47 +4133,65 @@ Wird minimal wenn $\lambda_i = \frac{\mu_i}{s_i}, i \in [r]$, insbesondere für
\]
\end{satz}
%\subsubsection{Beispiel (lineare Regression)}
%\begin{tikzpicture}
%\end{tikzpicture}
%$(t_i, y_i)_{i=1}^m$.
%Suche $f: f(t_i) \sim y_i, \forall i \in [m]$
%$f(t) = a_0 + a_1 t + a_2 t^2$
%\[
% \text{minimiere }
% \sum_{i=1}^m (f(t_i) - y_i)^2 = \sum_{i=1}^m (a_0 + a_1 t_i + a_2 t_i^2 - y_i)^2 = \norm{A x -b}^2_{\K^m}
%\]
\subsubsection{Beispiel (lineare Regression)}
$(t_i, y_i)_{i=1}^m$ gegeben. Wollen Polynome finden, die gut auf die Messungen passen.
Suchen also $p: p(t_i) \sim y_i, \forall i \in [m]$ \\
\begin{tikzpicture}[declare function={approx(\x) = 0.17 * \x * \x + -1.1 * \x + 4.1;}]
\draw [red, thick] plot [domain=0:10,samples=144,smooth] (\x, {approx(\x)}) node[right,color=black]
{$p(t) = a_0 + a_1 t + a_2 t^2$};
\foreach[count=\i] \diff in {0.93,-0.56,-2.12,1.35,-0.83,0.87,-0.04,-1.16,-0.02,1.25,0.13,-0.62,2.71,-1.84,-0.24,1.64,-0.06,-0.52,-0.21,-1.24}
\filldraw[ForestGreen] (\i * .5, {approx(\i * .5) + \diff * .6}) circle (.5mm);
\draw[->] (0, 0) -- (10, 0);
\draw[->] (0, 0) -- (0, 10);
\end{tikzpicture}
\[
\text{minimiere }
\sum_{i=1}^m (f(t_i) - y_i)^2 = \sum_{i=1}^m (a_0 + a_1 t_i + a_2 t_i^2 - y_i)^2 = \norm{A x -b}^2_{\K^m}
\text{ wobei}
\]
\[
A = \begin{pmatrix} 1 & t_1 & t_1^2 \\ \vdots & \vdots & \vdots \\ 1 & t_m & t_m^2 \end{pmatrix},
x = \begin{pmatrix} a_0 \\ a_1 \\ a_2 \end{pmatrix},
b = \begin{pmatrix} y_1 \\ \vdots \\ y_m \end{pmatrix}
\]
%\subsubsection{Anwendung: Ausgleichsquadrik}
%Problem: homogenes LGS $Ax=0$. Finde $x$ mit $\norm x = 1$ und $\norm{Ax}$ minimal. \\
%$b_1, \dots, b_n$ ONB aus EVen von $A^* A$ mit nichtnegativen EWen.
%\begin{align*}
% X = \sum \lambda_i b_i \implies \norm{Ax}^2 & = \inner{Ax}{Ax} \\
% & = \inner{A^* A x}{x} =
% \inner{\sum s_i \lambda_i b_i}{\sum \lambda_j b_j} = \sum_{i=1}^n s_i \abs{\lambda_i}^2
%\end{align*}
%$s_1 \le s_2 \le \dots \le s_n, \norm x = \sum \abs{\lambda_i}^2$
%\[
% \frac{\norm{Ax}}{\norm x} = \frac{\sum s_i \abs{\lambda_i}^2}{\sum \abs{\lambda_i}^2} \ge
% \frac{s_1 \sum \abs{\lambda_i}^2}{\sum \abs{\lambda_i}^2} s_1
%\]
%$\norm x = 1 \implies \norm{Ax} \ge s_1$
%$\norm{b_i} \implies \lambda_1, \lambda_2 = \dots = \lambda_n = 0 \implies \norm{Ab_1} = s_1 \implies b_1$
%löst unser Minimierungsproblem. \\
%$Q = \{(x,y) \in \R^2: \psi(x, y) = 0\}, \psi(x, y):= a_1 x^2 + a_2 xy + a_3 y^2 a_4 x + a_5 y + a_6$
%Gegeben: $(x_i,y_i)^m_{i=1}$ Suche $x = (a_1, \dots, a_6)^T$ mit $\norm x = 1$ sodass
%\[
% \sum_{i=1}^m (a_1 x_i^2 + a_2 x_i y_i + a_3 y_i^2 + a_4 x_i + a_5 y_y + a_6)^2
%\]
%minimal.
%$=\norm{Ax}^2, A = \begin{pmatrix}\end{pmatrix}$
%
%\begin{satz*}
% Sei $A \in \K^{m \times n}$ und $b \in \K^n$ Eigenvektor von $A^* A$ zum kleinsten Eigenwert $r_1$.
% Dann gilt
% \[
% \frac{\norm{Ab}}{\norm b} = \min\left\{\frac{\norm{Ax}}{\norm x}: x\in\R^n\right\} = \sqrt{r_1}
% \]
%\end{satz*}
\subsubsection{Anwendung: Ausgleichsquadrik}
Problem: homogenes LGS $Ax=0$. Finde $x$ mit $\norm x = 1$ und $\norm{Ax}$ minimal. \\
$b_1, \dots, b_n$ ONB aus EVen von $A^* A$ mit nichtnegativen EWen.
\begin{align*}
X = \sum \lambda_i b_i \implies \norm{Ax}^2 & = \inner{Ax}{Ax} \\
& = \inner{A^* A x}{x} =
\inner{\sum s_i \lambda_i b_i}{\sum \lambda_j b_j} = \sum_{i=1}^n s_i \abs{\lambda_i}^2
\end{align*}
$s_1 \le s_2 \le \dots \le s_n, \norm x = \sum \abs{\lambda_i}^2$
\[
\frac{\norm{Ax}}{\norm x} = \frac{\sum s_i \abs{\lambda_i}^2}{\sum \abs{\lambda_i}^2} \ge
\frac{s_1 \sum \abs{\lambda_i}^2}{\sum \abs{\lambda_i}^2} s_1
\]
$\norm x = 1 \implies \norm{Ax} \ge s_1$
$\norm{b_i} \implies \lambda_1, \lambda_2 = \dots = \lambda_n = 0 \implies \norm{Ab_1} = s_1 \implies b_1$
löst unser Minimierungsproblem. \\
$Q = \{(x,y) \in \R^2: \psi(x, y) = 0\}$ \\
$\psi(x, y):= a_1 x^2 + a_2 xy + a_3 y^2 a_4 x + a_5 y + a_6$ \\
Gegeben: $(x_i,y_i)^m_{i=1}$ Suche $x = (a_1, \dots, a_6)^T$ mit $\norm x = 1$ sodass
\[
\sum_{i=1}^m (a_1 x_i^2 + a_2 x_i y_i + a_3 y_i^2 + a_4 x_i + a_5 y_i + a_6)^2=\norm{Ax}^2
\]
minimal.
$A = \begin{pmatrix}
x_1^2 & x_1 y_1 & y_1^2 & x_1 & y_1 & 1 \\
\vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\
x_m^2 & x_m y_m & y_m^2 & x_m & y_m & 1 \\
\end{pmatrix}$ \\
Suche $x \in \R^6$ mit $\norm x = 1$ und $\norm{Ax}$ minimal.
$\implies x$ ist Eigenvektor von $A^* A$ zum kleinsten Eigenwert.
\begin{satz*}
Sei $A \in \K^{m \times n}$ und $b \in \K^n$ Eigenvektor von $A^* A$ zum kleinsten Eigenwert $r_1$.
Dann gilt
\[
\frac{\norm{Ab}}{\norm b} = \min\left\{\frac{\norm{Ax}}{\norm x}: x\in\R^n\right\} = \sqrt{r_1}
\]
\end{satz*}
\end{document}