Matriz de covariância

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Em Estatística e em Teoria das probabilidades, matriz de covariância é uma matriz, simétrica, que sumariza a covariância entre N variáveis.

Definição[editar | editar código-fonte]

Se os elementos de um vetor coluna

X = \begin{bmatrix}X_1 \\ X_2 \\  \vdots \\ X_n \end{bmatrix}

forem variáveis aleatórias, cada uma com variância finita, então a matriz de covariância será a matriz cujo elemento (ij) é a covariância


\Sigma_{ij}

= \mathrm{cov}(X_i, X_j) = \mathrm{E}\begin{bmatrix}
(X_i - \mu_i)(X_j - \mu_j)
\end{bmatrix}

em que

\mu_i = \mathrm{E}(X_i)\,

é o valor esperado do i-ésimo elemento do vetor X. Em outras palavras, temos


\Sigma

= \begin{bmatrix}
 \mathrm{E}[(X_1 - \mu_1)(X_1 - \mu_1)] & \mathrm{E}[(X_1 - \mu_1)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_1 - \mu_1)(X_n - \mu_n)] \\ \\
 \mathrm{E}[(X_2 - \mu_2)(X_1 - \mu_1)] & \mathrm{E}[(X_2 - \mu_2)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_2 - \mu_2)(X_n - \mu_n)] \\ \\
 \vdots & \vdots & \ddots & \vdots \\ \\
 \mathrm{E}[(X_n - \mu_n)(X_1 - \mu_1)] & \mathrm{E}[(X_n - \mu_n)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_n - \mu_n)(X_n - \mu_n)]
\end{bmatrix}

A covariância entre um elemento X_i e ele mesmo é a sua variância e forma a diagonal principal da matriz. A inversa desta matriz, \Sigma^{-1}, é chamada matriz de covariância inversa ou matriz de precisão.[1]

Generalização do conceito[editar | editar código-fonte]

A definição acima é equivalente à multiplicação do vetor coluna pela sua transposta


\Sigma=\mathrm{E}
\left[
 \left(
 \textbf{X} - \mathrm{E}[\textbf{X}]
 \right)
 \left(
 \textbf{X} - \mathrm{E}[\textbf{X}]
 \right)^\top
\right]

Propriedades[editar | editar código-fonte]

Ver também[editar | editar código-fonte]

Notes[editar | editar código-fonte]

  1. Larry Wasserman. Tudo sobre Estatística: Um Curso Conciso sobre Inferência Estatística. [S.l.: s.n.], 2004.

Referências[editar | editar código-fonte]