Aula 07: Normas de Vetores e Matrizes - Parte II
Um vetor para cada indivíduo \(y = (y_1,y_2,\ldots,y_n)\)
As 9 variáveis são escores obtidos em 9 testes de habilidade cognitiva:
\[\begin{align} d(y_1,y_2) &= \sqrt{z_1^2 + z_2^2} \\ &= \sqrt{\left(\frac{y_1-120}{10}\right)^2 + \left(\frac{y_2-80}{2}\right)^2} \\ &= \sqrt{\left(\frac{y_1-\mu_1}{\sigma_1}\right)^2 + \left(\frac{y_2-\mu_2}{\sigma_2}\right)^2} \\ \end{align}\]
\[ d(y, \mu) = \sqrt{\left(\frac{y_1-120}{10}\right)^2 + \left(\frac{y_2-80}{2}\right)^2} =1 \]
\[\begin{align} d^2(y,\mu) &= \left(\frac{y_1-\mu_1}{\sigma_1}\right)^2 + \left(\frac{y_2-\mu_2}{\sigma_2}\right)^2 \\ &= \begin{bmatrix}y_1 - \mu_1& y_2- \mu_2\end{bmatrix} \begin{bmatrix}1/\sigma_1^2 & 0 \\ 0 & 1/\sigma_2^2\end{bmatrix}\begin{bmatrix}y_1 - \mu_1 \\ y_2 - \mu_2\end{bmatrix}\\ &= \begin{bmatrix}y_1 - \mu_1& y_2- \mu_2\end{bmatrix} \begin{bmatrix}\sigma_1^2 & 0 \\ 0 & \sigma_2^2\end{bmatrix}^{-1}\begin{bmatrix}y_1 - \mu_1 \\ y_2 - \mu_2\end{bmatrix}\\ &= (y-\mu)^\top \Sigma^{-1}(y-\mu) \end{align}\]
-Vimos que \[\begin{align} d^2(y,\mu) &= \left(\frac{y_1-\mu_1}{\sigma_1}\right)^2 + \left(\frac{y_2-\mu_2}{\sigma_2}\right)^2 \\ &= (y-\mu)^\top \Sigma^{-1}(y-\mu) \end{align}\] onde \[ \Sigma = \begin{bmatrix} \sigma_1^2 & 0 \\ 0 & \sigma_2^2\end{bmatrix}\] é a equação de uma elipse centrada em \(\mu = (\mu_1, \mu_2)\)
Medida de distância é uma FORMA QUADRÁTICA \[ d^2(y,\mu) = (y-\mu)^\top \Sigma^{-1}(y-\mu)\]
Matriz \(\Sigma\) é uma matriz \(2\times 2\) simétrica chamada de matriz de covariância \[ \Sigma = \begin{bmatrix}\sigma_1^2 & \rho\sigma_1\sigma_2\\ \rho\sigma_1\sigma_2 & \sigma_2^2\end{bmatrix}\] onde \(\rho = \text{Corr}(Y_1, Y_2)\) é o índice de correlação de Pearson entre \(Y_1\) e \(Y_2\)
Temos sempre \(-1 \le \rho \le 1\)
Os elementos fora da diagonal, \(\rho\sigma_1\sigma_2\), são chamados de covariância entre \(Y_1\) e \(Y_2\)
Costumamos escrever \(\text{Cov}(Y_1,Y_2) = \rho\sigma_1\sigma_2 = \sigma_{12}\)
Seja \(Y = (Y_1, Y_2, \ldots, Y_k)\) um vetor aleatório de dimensão \(k\)
Seja \(\mu = (\mu_1, \mu_2, \ldots, \mu_k)\) seu VETOR-COLUNA de valores esperados
Seja \(\Sigma\) a matriz \(k\times k\) com a covariância \(\sigma_{ij} = \rho_{ij}\sigma_i\sigma_j\) onde \(\rho_{ij}\) é a correlação entre \(Y_i\) e \(Y_j\)
Distância estatística: \[ d^2(y,\mu) = (y-\mu)^\top \Sigma^{-1}(y-\mu)\]
Pontos equidistantes de \(\mu\) formam um elipsóide em \(k\) dimensões com eixos nas direções dos autovetores de \(\Sigma\) e com tamanhos proporcionais aos seus respectivos autovetores
Seja \(S\) uma matriz simétrica e definida positiva
Vamos querer comparar “tamanhos” de matrizes Como atribuir um tamanho para as matrizes abaixo?
\[\begin{bmatrix}0.1 &&\\ &0.2&\\&&0.3\end{bmatrix}\, \begin{bmatrix}150 &&\\ &150&\\&&180\end{bmatrix}\, \begin{bmatrix}100 &80&80\\ 90&150&100\\90&100&180\end{bmatrix}\]
\[\begin{bmatrix}1 &&\\ &1&\\&&1\end{bmatrix}\, \begin{bmatrix}1000 &\\ &1000\end{bmatrix}\, \begin{bmatrix}1.3 &5.9&-1.6\\ 1.7&6.1&9.7\\2.7&9.1&1.2\\-0.4&2.7&2.8\\2.2&7.2&7.9\end{bmatrix}\]
A mais simples de todas: - Empilhe as colunas da matriz como um vetor e calcule sua norma L2
\[A = \begin{bmatrix}1.3&5.9&-1.8\\1.7&6.1&9.7\end{bmatrix}\] \[\Vert A\Vert_F = \sqrt{(1.3)^2+(5.9)^2+(-1.8)^2+(1.7)^2+(6.1)^2+(9.7)^2}\]
\[\Vert A\Vert_F = \sqrt{\sum_{ij}\vert a_{ij}\vert^2}\]
Outras descrições úteis de Frobenius
\[A_{n\times m} = \begin{bmatrix}\vert&\vert&&\vert\\ a_1&a_2&\ldots&a_m\\\vert&\vert&&\vert\end{bmatrix} = \begin{bmatrix}-&b_1^\top&-\\-&b_2^\top&-\\&\vdots&\\ -&b_n^\top&-\end{bmatrix} \]
\[\begin{align} \Vert A \Vert_F^2 &= \sum_{ij}\vert a_{ij}\vert^2\\ &= \sum_{j=1}^m \Vert a_j\Vert_2^2\\ &= \sum_{i=1}^n \Vert b_i^\top\Vert_2^2\\ &= \text{trace}(A^\top A) \end{align}\]
A norma de uma matriz é uma função \(\Vert \star\Vert\) do conjunto de todas as matrizes complexas (de todas as ordens finitas) para \(\mathbb R\) que satisfaz as seguintes propriedades