Método dos momentos generalizado

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa

Método dos momentos generalizado (GMM, do inglês: Generalized method of moments) é uma técnica econométrica genérica de estimação de parâmetros de uma equação de regressão desenvolvida como uma extensão ao método de momentos. Sua aplicação é recomendada quando há suspeita de problemas de endogeneidade entre as variáveis explicativas do modelo e o número de momentos é maior do que o número de parâmetros a estimar.

O GMM é considerado uma das técnicas mais avançadas de econometria e sua aplicação é cada vez mais frequente. O método requer que um certo número de momentos sejam especificados.

Motivação[editar | editar código-fonte]

Considere um modelo de estimação de oferta e demanda de um bem qualquer[1] . Seja p_i o preço do bem, com o índice "i" representando cada observação deste preço.

1) oferta: q_i^d=\alpha_0+\alpha_1 \cdot p_i + u_i, onde q_i^d é a quantidade demandada.
2) demanda: q_i^s=\beta_0+\beta_1 \cdot p_i + v_i, onde q_i^s é a quantidade ofertada.
3) equilíbrio de mercado: q_i^d=q_i^s=q_i

Substituindo a equação 3 nas equações 1 e 2, podemos transformar as três equações em duas.

1) q_i=\alpha_0+\alpha_1 \cdot p_i + u_i
2) q_i=\beta_0+\beta_1 \cdot p_i + v_i

Dizemos que um regressor (variável explicativa) é endógeno se não for predeterminado, ou seja, se não for ortogonal ao termo de erro. No exemplo acima, o regressor p_i é necessariamente endógeno nas duas equações, pois é uma função dos dois termos de erro:

p_i=\frac{\beta_0=\alpha_0}{\alpha_1-\beta_1}+\frac{v_i-u_i}{\alpha_1-\beta_1} \rightarrow Cov \left ( p_i, u_i \right )\neq 0, Cov \left ( p_i, v_i \right )\neq 0

Como a correlação entre o regressor e o termo de erro (em cada uma das equações) é diferente de zero, o métodos de mínimos quadrados ordinários (OLS) não pode ser utilizado, pois gera estimadores inconsistentes para \alpha_1 e \beta_1. Portanto, o método métodos de mínimos quadrados ordinários é um caso muito particular de GMM, que ocorre quando não há correlação entre a variável explicativa e o termo de erro.[1] .

Igualmente, o método de variáveis instrumentais (que considera um instrumento para cada variável endógena) e o método dos mínimos quadrados em dois estágios também são considerados casos especiais de GMM[1] .

Formulação geral e hipóteses[editar | editar código-fonte]

Seja uma equação linear, a ser estimada, na forma matricial[1] :

y_i=\mathbf{x_i}\boldsymbol{\delta}+\varepsilon_i, i=1,2,...,n

onde \mathbf{x_i} indica um uma um vetor L dimensional (indicando L variáveis explicativas), e \varepsilon_i indica um termo de erro não observável.

  • Seja \mathbf{z_i} um vetor de instrumentos e \mathbf{w_i} os elementos únicos e não constantes de \left ( y_i, \mathbf{x_i}, \mathbf{z_i}\right ).
  • Seja \mathbf{g_i}\equiv \mathbf{z_i} \cdot \varepsilon_i. Assumimos que E \left ( \mathbf{g_i} \right )=0, ou seja, os instrumentos são ortogonais ao termo de erro.
  • Condição de posto:A matriz KXL E \left ( \mathbf{z_i}\mathbf{x_i}^T \right )=\boldsymbol{\Sigma_{zx}} tem posto pleno, ou seja, se u posto é L = número de colunas.
  • Condição necessária para a identificação: o número de variáveis pre-determinadas (K) deve ser maior ou igual a L (=número de regressores)

Propriedades[editar | editar código-fonte]

A idéia do método dos momentos generalizado é usar as condições dos momentos que podem ser encontrados em um problema de estimação de parâmetros com o menor esforço. Assume-se que os dados são processos estocásticos (Y_1, Y_2, \ldots ). Na linguagem matemática, inicia-se com uma função (vector de valores) f que depende de ambos, os parâmetros e uma simples observação que tem média zero para o valor verdadeiro do parâmetro, \theta = \theta_0, i.e.

 E[f(Y_i,\theta_0)] = 0.\,

Para converter essa função em uma estimação de parâmetros, deve-se minimizar a função quadrática associada

\ \hat{\theta} = \text{arg} \min_{\theta} \left(\sum_{i=1}^N f(Y_i,\theta)\right)^TA\left(\sum_{i=1}^N f(Y_i,\theta)\right)

Onde o sobrescrito T denota a transposta, e A é uma matriz de ponderações positivo definida. A pode ser conhecida a priori ou estimada a partir dos dados da amostra, incorporando obervações e instrumentos.

O método GMM escolhe os coeficientes de forma que os resíduos sejam ortogonais aos instrumentos utilizados.

História[editar | editar código-fonte]

Atribui-se frequentemente o método GMM a Lars Peter Hansen em artigo na revista Econometrica de 1982[2] . Mas o método tem seus antecedentes nos trabalhos de Karl Pearson sobre o método dos momentos em 1895, e mais na frente nos trabalhos de Fisher (1925) e Neyman e Egon Pearson (1928) sobre o método MCE que supera a dificuldade do método dos momentos quando se tem mais condições de momentos do que parâmetros a serem estimados (sistema sobre determinado).

Referências[editar | editar código-fonte]

  • GREENE, William H. Econometric Analysis, (6th ed.) New Jersey: Pearson Prentice Hall, 2008.
  • FISHER, R.A. "The Theory of statistical estimation", Proceedings of the Cambridge Philosophical Society, v. 22, p.700-725, 1925.
  1. a b c d HAYASHI, Fumio. Econometrics. Princeton University Press. 2000. ISBN-13: 978-0-691-01018-2. Capítulo 3.
  2. HANSEN, Lars Peter. Large Sample Properties of Generalized Method of Moments Estimators, Econometrica, v. 50, n. 4, p.1029-1054, Jul., 1982. Disponível em: <http://ideas.repec.org/a/ecm/emetrp/v50y1982i4p1029-54.html>. Acesso em: 18 de julho de 2011

Ver também[editar | editar código-fonte]