Matriz de covariância

Origem: Wikipédia, a enciclopédia livre.

Em estatística e em teoria das probabilidades, matriz de covariância é uma matriz, simétrica, que sumariza a covariância entre N variáveis.

Definição[editar | editar código-fonte]

Se os elementos de um vetor coluna

forem variáveis aleatórias, cada uma com variância finita, então a matriz de covariância será a matriz cujo elemento (ij) é a covariância

em que

é o valor esperado do i-ésimo elemento do vetor X. Em outras palavras, temos

A covariância entre um elemento e ele mesmo é a sua variância e forma a diagonal principal da matriz. A inversa desta matriz, , é chamada matriz de covariância inversa ou matriz de precisão.[1]

Generalização do conceito[editar | editar código-fonte]

A definição acima é equivalente à multiplicação do vetor coluna pela sua transposta

Propriedades[editar | editar código-fonte]

Ver também[editar | editar código-fonte]

Notes[editar | editar código-fonte]

  1. Larry Wasserman (2004). Tudo sobre Estatística: Um Curso Conciso sobre Inferência Estatística. [S.l.: s.n.] 

Referências[editar | editar código-fonte]