Correlação

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Question book.svg
Este artigo não cita fontes confiáveis e independentes. (desde outubro de 2014). Por favor, adicione referências e insira-as corretamente no texto ou no rodapé. Conteúdo sem fontes poderá ser removido.
Encontre fontes: Google (notícias, livros e acadêmico)
Este artigo abrange a correlação entre duas variáveis aleatórias. O termo correlação pode também significar a relação invertida de duas funções ou a correlação eletrônica em sistemas moleculares.

Em teoria da probabilidade e estatística, correlação, também chamada de coeficiente de correlação, indica a força e a direção do relacionamento linear entre duas variáveis aleatórias. No uso estatístico geral, correlação ou co-relação se refere a medida da relação entre duas variáveis, embora correlação não implique causalidade. Neste sentido geral, existem vários coeficientes medindo o grau de correlação, adaptados à natureza dos dados.

Vários coeficientes são utilizados para situações diferentes. O mais conhecido é o coeficiente de correlação de Pearson, o qual é obtido dividindo a covariância de duas variáveis pelo produto de seus desvios padrão. Apesar do nome, ela foi apresentada inicialmente por Francis Galton.

A correlação falha em capturar dependência em algumas instancias. Em geral é possível mostrar que há pares de variáveis aleatórias com forte dependência estatística e que no entanto apresentam correlação nula. Para esse caso devem-se usar outras medidas de dependência.

Coeficiente produto-momento de Pearson[editar | editar código-fonte]

Propriedades matemáticas[editar | editar código-fonte]

O coeficiente de correlação ρX, Y entre duas variáveis aleatórias X e Y com valores esperados μX e μY e desvios padrão σX e σY é definida como:

\rho_{X,Y}={\mathrm{cov}(X,Y) \over \sigma_X \sigma_Y} ={E((X-\mu_X)(Y-\mu_Y)) \over \sigma_X\sigma_Y},

onde E é o operador valor esperado e cov significa covariância. Como μX = E(X), σX² = E(X²) − E²(X) e , do mesmo modo para Y, podemos escrever também

\rho_{X,Y}=\frac{E(XY)-E(X)E(Y)}{\sqrt{E(X^2)-E^2(X)}~\sqrt{E(Y^2)-E^2(Y)}}.

A correlação é definida apenas se ambos desvios padrões são finitos e diferentes de zero. Pelo corolário da desigualdade de Cauchy-Schwarz, a correlação não pode exceder 1 em valor absoluto.

ETA Eta quadrado mede a variação da variável dependente explicada pela independente. Expressa-se em percentagem. Assume valores entre 0 e 1. Eta mede intensidade de associação entre variável dependente e independente. Assume valores entre 0 e 1. fonte: unesco.org

Ver também[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]

Wiki letter w.svg Este artigo é um esboço. Você pode ajudar a Wikipédia expandindo-o. Editor: considere marcar com um esboço mais específico.