Aula 10: Decomposição por valores singulares
\[A = \begin{bmatrix}1&2\\3&4\\5&6\end{bmatrix}\]
\[y = \begin{bmatrix}1&2\\3&4\\5&6\end{bmatrix}\begin{bmatrix}10\\100\end{bmatrix} = 10\begin{bmatrix}1\\3\\5\end{bmatrix}+100\begin{bmatrix}2\\4\\6\end{bmatrix} = y\in \mathbb R^3\]
Não é possível usarmos \[Ax=\lambda x\]
O que podemos fazer? Será que existem vetores escalares tais que
\[Av_i = \sigma_i u_i \]
Como \(u_i\) está em \(C(A)\), existem no máximo \(r\) vetores \(u_i\)’s independentes, onde \(r=\text{posto}(A) \le \min\{m,n\}\)
Note que sempre existe um \(v_i\) para cada \(u_i\)
\[Av_1 = \sigma_1 u_1\] \[Av_2 = \sigma_2 u_2\]
\[ \vdots\]
\[Av_r = \sigma_r u_r \]
\[A\begin{bmatrix}\vert & \vert & \ldots & \vert \\ v_1 & v_2 & \ldots & v_r\\\vert & \vert & \ldots & \vert \end{bmatrix} = \begin{bmatrix}\vert & \vert & \ldots & \vert \\ u_1 & u_2 & \ldots & u_r\\\vert & \vert & \ldots & \vert \end{bmatrix}\begin{bmatrix}\sigma_1 & & \\ &\ddots&\\&&\sigma_r\end{bmatrix} \]
\[ \underbrace{ \begin{bmatrix} 3&0\\ 4&5 \end{bmatrix}}_A \underbrace{ \frac{1}{\sqrt{2}} \begin{bmatrix} 1&-1\\ 1&1 \end{bmatrix}}_V = \underbrace{ \frac{1}{\sqrt{10}} \begin{bmatrix} 1&-3\\ 3&1 \end{bmatrix}}_U \underbrace{ \begin{bmatrix} 3\sqrt{5}&\\ &\sqrt{5} \end{bmatrix}}_\Sigma \]
Se o espaço coluna \(C(A)\) tem dimensão \(r\), existem \(r\) vetores \(\sigma_iu_i\) independentes que podem ser escritos como \(Av_i\)
Sabemos ainda que o espaço nulo \(N(A)\) tem dimensão \(n-r\)
Logo, existem \(n-r\) vetores \(v_j\) independentes tais que \(Av_j=0\)
Esses vetores são orgotonais a \(v_1,\ldots,v_r\), concatenando-os a \(V\),
\[ A_{m\times n} \underbrace{ \begin{bmatrix} \vert & \ldots & \vert & & \vert& \ldots &\vert\\ v_1 &\ldots & v_r && v_{r+1} & \ldots & v_n\\ \vert & \ldots & \vert & & \vert& \ldots &\vert \end{bmatrix}}_{n\times n} = \underbrace{ \begin{bmatrix} \vert & \ldots & \vert\\ u_1 & \ldots & u_r\\ \vert & \ldots & \vert\\ \end{bmatrix}}_{m\times r} \underbrace{ \begin{bmatrix} \sigma_1 &\ldots & 0 && 0 &\ldots & 0\\ \vdots &\ddots & \vdots && \vdots &\ddots & \vdots\\ 0 &\ldots & \sigma_r && 0 &\ldots & 0\\ \end{bmatrix}}_{r\times n} \]
Como os vetores \(u_i\) estão no \(\mathbb R^m\), existem \(m-r\) vetores independentes \(u_j\) ortogonais a \(u_1, \ldots, u_r\). Logo, podemos concatená-los a \(U\), desde que sejam adicionadas \(m-r\) linhas nulas em \(\Sigma\):
\[ A_{m\times n} \underbrace{ \begin{bmatrix} \vert & \ldots & \vert & & \vert& \ldots &\vert\\ v_1 &\ldots & v_r && v_{r+1} & \ldots & v_n\\ \vert & \ldots & \vert & & \vert& \ldots &\vert \end{bmatrix}}_{n\times n} = \underbrace{ \begin{bmatrix} \vert & \ldots & \vert & & \vert& \ldots &\vert\\ u_1 & \ldots & u_r && u_{r+1} & \ldots & u_m\\ \vert & \ldots & \vert & & \vert& \ldots &\vert\\ \end{bmatrix}}_{m\times m} \underbrace{ \begin{bmatrix} \sigma_1 &\ldots & 0 && 0 &\ldots & 0\\ \vdots &\ddots & \vdots && \vdots &\ddots & \vdots\\ 0 &\ldots & \sigma_r && 0 &\ldots & 0\\ \\ 0 &\ldots & 0 && 0 &\ldots & 0\\ \vdots &\ddots & \vdots && \vdots &\ddots & \vdots\\ 0 &\ldots & 0 && 0 &\ldots & 0\\ \end{bmatrix}}_{m\times n} \]
Se todos os vetores \(v\)’s forem ortogonais (e eles são), podemos reescrever como
\[ AV = U \Sigma\]
\[ AVV^{-1} = U \Sigma V^{-1}\]
\[ A = U \Sigma V^\top\]
Como apenas os \(r\) primeiros termos da diagonal de \(\Sigma\) são não-nulos, podemos tomar essa submatriz descartando as colunas \(r+1,\ldots,m\) de \(U\) e as linhas \(r+1,\ldots,n\) de \(V^\top\). O resultado, denotado pelas mesmas letras é
A decomposição \(A = U\Sigma V^\top\) é chamada de Singular Value Decomposition (SVD)
Podemos escrever a decomposição como soma de matrizes de posto 1
\[ A = U \Sigma V^\top = ?\]
\[ A = \begin{bmatrix} \vert &\vert & \ldots &\vert \\ \sigma_1u_1 & \sigma_2u_2 & \ldots & \sigma_ru_r \\ \vert &\vert & \ldots &\vert \\ \end{bmatrix} \begin{bmatrix} - & v_1^\top & -\\ - & v_2^\top & -\\ - & \vdots & -\\ - & v_r^\top & -\\ \end{bmatrix} \]
\[A = \sigma_1u_1v_1^\top + \ldots + \sigma_r u_r v_r^\top\]
\[ \underbrace{\frac{3\sqrt{5}}{\sqrt{10}\sqrt{2}} \begin{bmatrix} 1\\3 \end{bmatrix} \begin{bmatrix} 1 & 1 \end{bmatrix}}_{\sigma_1u_1v_1^\top} + \underbrace{\frac{\sqrt{5}}{\sqrt{10}\sqrt{2}} \begin{bmatrix} -3\\1 \end{bmatrix} \begin{bmatrix} -1 & 1 \end{bmatrix}}_{\sigma_2u_2v_2^\top} \]
\[ = \frac{3}{2} \begin{bmatrix} 1&1\\3&3 \end{bmatrix} + \frac{1}{2} \begin{bmatrix} 3&-3\\-1&1 \end{bmatrix} = \underbrace{\begin{bmatrix} 3&0\\4&5 \end{bmatrix}}_{A} \]
Existe alguma relação entre autovalores e valores singulares?
\[A = U\Sigma V^\top\] \[S = X\Lambda X^{-1} \]
Existe alguma relação entre autovalores e valores singulares?
Sim, 2 matrizes simétricas
\[A^\top A = ?\]
Como \(A = U\Sigma V^\top\)
\[\begin{align} A^\top A &= (U\Sigma V^\top)^\top U\Sigma V^\top \\ &= V\Sigma \underbrace{U^\top U}_{I}\Sigma V^\top \\ &= V\Sigma^2 V^\top \\ &= \underbrace{ \begin{bmatrix} \vert & \ldots & \vert \\ v_1 & \ldots & v_r \\ \vert & \ldots & \vert \end{bmatrix}}_{Q} \underbrace{ \begin{bmatrix} \sigma_1^2 && \\ & \ddots & \\ && \sigma_r^2 \end{bmatrix}}_{\Lambda} \underbrace{\begin{bmatrix} - & v_1 & - \\ - & \vdots &- \\ - & v_r & - \end{bmatrix}}_{Q} \end{align}\]
Observe que como \(S = A^\top A\), e \(S\) é simétrica, então \(S = Q\Lambda Q^\top\)
Existe alguma relação entre autovalores e valores singulares?
\[ AA^\top = ?\]
Como \(A = U\Sigma V^\top\)
\[\begin{align} A A^\top &= U\Sigma V^\top (U\Sigma V^\top)^\top \\ &= U \Sigma \underbrace{V^\top V}_{I}\Sigma U^\top\\ &= U\Sigma^2 U^\top\\ &= \underbrace{ \begin{bmatrix} \vert & \ldots & \vert \\ u_1 & \ldots & u_r \\ \vert & \ldots & \vert \end{bmatrix}}_{Q} \underbrace{ \begin{bmatrix} \sigma_1^2 && \\ & \ddots & \\ && \sigma_r^2 \end{bmatrix}}_{\Lambda} \underbrace{\begin{bmatrix} - & u_1 & - \\ - & \vdots &- \\ - & u_r & - \end{bmatrix}}_{Q} \end{align}\]
Vamos começar por uma matriz de rotação \(R\):
\[R(\theta) = \begin{bmatrix} \cos(\theta) & -\sin(\theta)\\ \sin(\theta) & \cos(\theta) \end{bmatrix} \]
\[R(\pi/4) = \begin{bmatrix} \cos(\pi/4) & -\sin(\pi/4)\\ \sin(\pi/4) & \cos(\pi/4) \end{bmatrix} \]
\[R(\pi/4) = \begin{bmatrix} 1/\sqrt{2} & -1/\sqrt{2}\\ 1/\sqrt{2}& 1/\sqrt{2} \end{bmatrix} \]
Vamos começar por uma matriz de rotação \(R\): \[R(\pi/4)x = \begin{bmatrix} 1/\sqrt{2} & -1/\sqrt{2}\\ 1/\sqrt{2}& 1/\sqrt{2} \end{bmatrix} \begin{bmatrix} x_1\\ x_2 \end{bmatrix} = ? \]
Ex: \(x = \begin{bmatrix}3\\2\end{bmatrix} = 3\begin{bmatrix}1\\0\end{bmatrix}+ 2\begin{bmatrix}0\\1\end{bmatrix} = 3e_1 + 2e_2\)
\[Rx = c_1Re_1 + c_2Re_2 = 3Re_1 + 2Re_2\]
\[ Rx = 3 \begin{bmatrix} 1/\sqrt{2} & -1/\sqrt{2}\\ 1/\sqrt{2}& 1/\sqrt{2} \end{bmatrix}\begin{bmatrix} 1\\ 0 \end{bmatrix} + 2 \begin{bmatrix} 1/\sqrt{2} & -1/\sqrt{2}\\ 1/\sqrt{2}& 1/\sqrt{2} \end{bmatrix}\begin{bmatrix} 0\\ 1 \end{bmatrix} \]
\[ Rx = 3 \begin{bmatrix} 1/\sqrt{2} \\ 1/\sqrt{2} \end{bmatrix} + 2 \begin{bmatrix} -1/\sqrt{2}\\ 1/\sqrt{2} \end{bmatrix} \] ## Geometria de SVD
O que significa multiplicar um vetor \(v\) por \(A\)
\[A v = (U\Sigma V^\top)v = U \Sigma (V^\top v)\]
Agora vamos ver o que acontece quando usamos uma matriz de escala \(\Sigma\):
\[ \Sigma(\sigma_1, \sigma_2) = \begin{bmatrix} \sigma_1 & 0\\ 0 & \sigma_2 \end{bmatrix} \]
\[ \Sigma(2.0, 0.5)x = \begin{bmatrix} 2.0 & 0\\ 0 & 0.5 \end{bmatrix} \begin{bmatrix} x_1\\ x_2 \end{bmatrix} = \begin{bmatrix}2.0 x_1 \\ 0.5 x_2\end{bmatrix} \]