Regressão linear

Origem: Wikipédia, a enciclopédia livre.
Saltar para a navegação Saltar para a pesquisa
Question book-4.svg
Esta página cita fontes confiáveis e independentes, mas que não cobrem todo o conteúdo (desde julho de 2019). Ajude a inserir referências. Conteúdo não verificável poderá ser removido.—Encontre fontes: Google (notícias, livros e acadêmico)

Em estatística ou econometria, regressão linear é uma equação para se estimar a condicional (valor esperado) de uma variável y, dados os valores de algumas outras variáveis x.[1][2]

Exemplo de regressão linear.

A regressão, em geral, tem como objectivo tratar de um valor que não se consegue estimar inicialmente.

A regressão linear é chamada "linear" porque se considera que a relação da resposta às variáveis é uma função linear de alguns parâmetros. Os modelos de regressão que não são uma função linear dos parâmetros se chamam modelos de regressão não-linear. Sendo uma das primeiras formas de análise regressiva a ser estudada rigorosamente, e usada extensamente em aplicações práticas. Isso acontece porque modelos que dependem de forma linear dos seus parâmetros desconhecidos, são mais fáceis de ajustar que os modelos não-lineares aos seus parâmetros, e porque as propriedades estatísticas dos estimadores resultantes são fáceis de determinar.[3]

Modelos de regressão linear são frequentemente ajustados usando a abordagem dos mínimos quadrados, mas que também pode ser montada de outras maneiras, tal como minimizando a "falta de ajuste" em alguma outra norma (com menos desvios absolutos de regressão), ou através da minimização de uma penalização da versão dos mínimos quadrados. Por outro lado, a abordagem de mínimos quadrados pode ser utilizado para ajustar a modelos que não são modelos lineares. Assim, embora os termos "mínimos quadrados" e "modelo linear" estejam intimamente ligados, eles não são sinônimos. [carece de fontes?]

Equação da Regressão Linear[editar | editar código-fonte]

Para se estimar o valor esperado, usa-se de uma equação, que determina a relação entre ambas as variáveis.

, onde:

: Variável explicada (dependente); representa o que o modelo tentará prever

: É uma constante, que representa a interceptação da reta com o eixo vertical;

: Representa a inclinação (coeficiente angular) em relação à variável explicativa;

: Variável explicativa (independente);

: Representa todos os factores residuais mais os possíveis erros de medição. O seu comportamento é aleatório, devido à natureza dos factores que encerra. Para que essa fórmula possa ser aplicada, os erros devem satisfazer determinadas hipóteses, que são: terem distribuição normal, com a mesma variância , independentes e independentes da variável explicativa X, ou seja, i.i.d. (independentes e identicamente distribuídas).

Notação Matricial[editar | editar código-fonte]

A equação acima pode ser reescrita em forma de matriz:

Onde é uma matriz de observações, é uma matriz de tamanho (sendo a primeira coluna com valores sempre = 1, representando a constante , e é a quantidade de variáveis explicativas), é uma matriz de variáveis explicativas (sendo que representa a constante ) e é uma matriz de de resíduos.


Estimativa dos fatores e [editar | editar código-fonte]

A técnica mais usual para estimativa dos parâmetros e é o Método dos mínimos quadrados, mas também podem ser usados:

Ver também[editar | editar código-fonte]

Ligações Externas[editar | editar código-fonte]

Referências

  1. «Linear regression» (PDF) (em inglês). Stanford.edu. Consultado em 10 de julho de 2019 
  2. «Chapter 9 - Simple linear regression» (PDF) (em inglês). Carnegie Mellon University - Statistics & Data Science. Consultado em 10 de julho de 2019 
  3. http://www.fisica.ufs.br/egsantana/cinematica/regresion/regresion.htm Regressão linear com experimêntos físicos [ligação inativa]

Bibliografia[editar | editar código-fonte]

  • REIS, E., Estatistica Descritiva (2ª ed.). Lisboa: Edições Sílabo, 1994