Saltar para o conteúdo

Diferenças entre edições de "Estimador"

32 bytes adicionados ,  13h52min de 5 de maio de 2014
Predefinições e outros ajustes.
(Predefinições e outros ajustes.)
A [[teoria estatística]] está preocupada com as propriedades dos estimadores; isto é, com a definição de propriedades que podem ser utilizadas para comparar diferentes estimadores (regras diferentes para criar estimativas) para a mesma quantidade, baseada nos mesmos dados. Tais propriedades podem ser utilizadas para determinar as melhores regras de utilização em determinadas circunstâncias. No entanto, na [[estatística robusta]], a teoria estatística passa a considerar o equilíbrio entre ter boas propriedades, se os pressupostos rigidamente definidos assegurarem, e ter menos boas propriedades que assegurem em condições mais amplas.
 
== Prática ==
Um "estimador " ou "[[ponto estimado]]" é uma [[estatística ]] (isto é, uma função dos dados) que é utilizado para inferir o valor de um [[parâmetro]] desconhecido em um [[modelo estatístico]]. O parâmetro a ser estimado por vezes é chamado ''estimando''.{{Carece de fontes|datedata=Septembersetembro de 2010}} Ele pode ser de dimensão finita (no [[modelo paramétrico|paramétrico]] e [[modelo semi-paramétrico]]), ou de dimensão infinita ([[modelo não semi-parametrico |não semi-paramétrico]] e [[model não parametrico|modelo não paramétrico]]).{{Carece de fontes|datedata=Septembersetembro de 2010}} Se o parâmetro é denotado ''θ'' então o estimador é normalmente escrito pela adição de um [[circunflexo ]] sobre o símbolo: <math style="vertical-align:0">\scriptstyle\hat\theta</math>. Sendo uma função dos dados, o estimador é em si uma variável aleatória, uma realização particular desta variável aleatória é chamada "estimativa". Às vezes, as palavras "estimador" e "estimativa" são usados ​​alternadamente.
 
A definição coloca, praticamente sem restrições, sobre quais funções dos dados podem ser chamadas de " estimadores ". A atratividade de diferentes estimadores pode ser julgada ao olhar para as suas propriedades, tais como [[viés]], [[erro quadrático médio]], [[consistência]], [[distribuição assintótica]], etc.. A construção e comparação de estimadores são os temas da [[teoria da estimação]]. No contexto da [[teoria da decisão]], um estimador é um tipo de [[regra de decisão]], e seu desempenho pode ser avaliado através do uso de [[funções de perda]].
O problema da [[estimação da densidade]] resulta em duas aplicações. Em primeiro lugar, ao estimar as [[funções de densidade de probabilidade]] de variáveis ​​aleatórias e em segundo lugar para estimar a [[função de densidade espectral]] de uma [[série temporal]]. Nestes problemas as estimativas são funções que podem ser consideradas como estimativas de ponto em um espaço de dimensão infinita, e há problemas correspondentes à estimação de intervalo.
 
== Definição ==
Suponhamos que exista um parâmetro <math> \theta \ </math> fixo que tem de ser estimado. Em seguida, um "estimador" é uma função que mapeia o [[espaço amostral]] de um conjunto de estimativas de amostra. Um estimador de <math> \theta \ </math> geralmente é representado pelo símbolo <math>\widehat{\theta}</math>. Muitas vezes, é conveniente expressar a teoria utilizando [[álgebra de variáveis ​​aleatórias]]: assim, se ''X'' é utilizado para denotar uma variável aleatória correspondente aos dados observados, o estimador (se tratado como uma variável aleatória) é simbolizado como uma função da [[Variável aleatória discreta|variável aleatória]], <math>\widehat{\theta}(X)</math>. A estima para um conjunto de dados observados em particular (isto é, para ''X'' = ''x'') é então <math>\widehat{\theta}(x)</math>, que é um valor fixado. Muitas vezes, uma notação abreviada é usada no qual <math>\widehat{\theta}</math> é interpretado diretamente como uma variável aleatória, mas isso pode causar confusão.
 
== Propriedades quantificadas ==
As seguintes definições e atributos aplicam-se:
 
; Erro
Para uma amostra de dado <math> x \ </math>, o "[[erros e resíduos na estatística|erro]]" do estimador <math>\widehat{\theta}</math> é definido como
:<math>e(x)=\widehat{\theta}(x) - \theta,</math>
onde <math>\theta \ </math> é o parâmetro que está sendo estimado. Note que o erro, ''e'', depende não somente do estimador (a fórmula da estimação ou procedimento), mas também sobre a amostra.
 
; Erro quadrático médio
O [[erro quadrático médio]] de <math>\widehat{\theta}</math> é definido como o valor esperado (média ponderada de probabilidade, sobre todas as amostras) dos erros ao quadrado, isto é,
:<math>\operatorname{EQM}(\widehat{\theta}) = \operatorname{E}[(\widehat{\theta}(X) - \theta)^2].</math>
Ele é usado para indicar o quão distante, em média, o conjunto de estimativas está do único parâmetro a ser estimado. Considere a seguinte analogia. Suponha que o parâmetro é o centro de um alvo, o estimador é o processo de atirar flechas no alvo, e as flechas individuais são estimativas (amostras). Então, a alta EQM, significa que a distância média das flechas do centro do alvo é alta e baixo EQM significa que a distância média do centro do alvo é baixa. As flechas podem ou não ser agrupadas. Por exemplo, mesmo se todas as flechas baterem no mesmo ponto, mesmo errando grosseiramente o alvo, o EQM ainda é relativamente grande. Observe, contudo, que se o EQM é relativamente baixo, então as flechas estão provavelmente mais altamente agrupadas (do que altamente dispersas).
 
; Desvio de amostragem
Para uma amostra de dado <math> x \ </math>, o [[desvio de amostragem]] do estimador <math>\widehat{\theta}</math> é definido como
: <math>d(x) = \widehat{\theta}(x) - \operatorname{E}(\widehat{\theta}(X)) = \widehat{\theta}(x) - \operatorname{E}(\widehat {\theta}),</math>
onde <math>\operatorname{E}(\widehat{\theta}(X))</math> é o [[valor esperado]] do estimador. Perceba que o desvio de amostragem, d, depende não somente no estimador, mas na amostra.
 
; Variância
A [[variância]] de <math>\widehat{\theta}</math> é simplesmente o valor esperado dos desvios quadrados de amostragem, ou seja, <math>\operatorname{var}(\widehat{\theta}) = \operatorname{E}[(\widehat{\theta} - \operatorname{E}(\widehat{\theta})) ^ 2]</math>. Ele é usado para indicar quão distante, em média, o conjunto de estimativas está do valor esperado das estimativas. Observe a diferença entre EQM e variância. Se o parâmetro for o centro de um alvo, e as flechas são estimativas, então, uma variação relativamente alta significa que as flechas estão dispersas, e uma variância relativamente baixa significa que as flechas estão agrupadas. Algumas coisas a observar: mesmo que a variância for baixa, o conjunto de flechas pode ainda estar longe do alvo, e mesmo se a variância for alta, o conjunto difuso de flechas ainda pode ser não-viesado. Finalmente, note que, mesmo se todas as flechas errarem grosseiramente o alvo, se, no entanto, todas bateram no mesmo ponto, a variância é zero.
 
; Viés
O [[Viés de um estimador|viés]] de <math>\widehat{\theta}</math> é definido como <math>B(\widehat{\theta}) = \operatorname{E}(\widehat{\theta}) - \theta</math>. Ele é a distância entre a média do conjunto de estimativas, e o único parâmetro a ser estimado. Ele também é o valor esperado do erro, uma vez que <math>\operatorname{E}(\widehat{\theta}) - \theta = \operatorname{E}(\widehat{\theta} - \theta)</math>. Se o parâmetro for o centro do alvo, e as flechas forem as estimativas, em seguida, um valor absoluto relativamente alto para o viés significa que a posição média das flechas está fora da alvo, e um viés absoluto relativamente baixo significa que a posição média das flechas está no alvo. Elas podem estar dispersas, ou podem estar agrupadas. A relação entre a variação de polarização é análoga à relação entre a [[exatidão e precisão]].
 
; Não-enviesado
O estimador <math>\widehat{\theta}</math> é um [[estimador não-enviesado]] de <math>\theta \ </math> [[se e somente se]] <math>B(\widehat{\theta}) = 0</math>. Note que o viés é uma propriedade do estimador, não da estimativa. Muitas vezes, as pessoas se referem a uma "estimativa enviesada" ou uma "estimativa não-enviesada", mas elas realmente estão falando sobre uma "estimativa de um estimador enviesado", ou uma "estimativa de um estimador não-enviesado". Além disso, muitas vezes as pessoas confundem o "erro" de uma única estimativa com o "viés" de um estimador. Apenas porque o erro para uma estimativa é grande, não significa que o estimador é enviesado. De fato, mesmo se todas as estimativas tiverem valores absolutos astronômicos para os seus erros, se o valor esperado do erro é zero, o estimador é não-enviesado. Além disso, só porque um estimador é enviesado, não impede que o erro de estimativa seja zero (nós podemos ter sido sortudos). A situação ideal, é claro, é ter um estimador não-enviesado com baixa variância, e também tentar limitar o número de amostras em que o erro é extremo (isto é, têm poucos valores atípicos). No entanto, não é essencial enviesamento. Muitas vezes, se apenas um pequeno viés é permitido, então um estimador pode ser encontrado com o EQM baixo e / ou poucas estimativas da amostra discrepantes.
 
Uma alternativa para a versão "não-enviesada" acima, é a "mediana - não-enviesada", onde a [[Mediana (estatística)|mediana]] da distribuição de estimativas concorda com o valor real, assim, no longo prazo, a metade das estimativas será muito baixa e metade muito alta. Enquanto isso se aplica de imediato apenas para estimadores de valor escalar, isso pode ser estendido para qualquer medida de [[tendência central]] de uma distribuição: veja [[estimadores de mediana não-enviesados]].
 
; Relacionamentos
* O EQM, variância, e viés, estão relacionados: <math>\operatorname{EQM}(\widehat{\theta}) = \operatorname{var}(\widehat\theta) + (B(\widehat{\theta})) ^ 2,</math> ou seja, o erro médio quadrado = variância + quadrado do viés. Em particular, para um estimador não-enviesado, a variância é igual ao EQM.
* O [[desvio padrão]] de um estimador de θ (a [[raiz quadrada]] da variância), ou uma estimativa do desvio padrão de um estimador de θ, é chamado o [[Erro padrão (estatística)|erro padrão]] de θ.
 
== Propriedades comportamentais ==
; Consistência
 
{{MainArtigo principal|Estimador consistente}}
;Consistência
{{Main|Estimador consistente}}
 
Uma sequência consistente de estimadores é uma sequência de estimadores que [[Convergência em probabilidade|convergem em probabilidade]] para a quantidade que está sendo estimada como o índice (normalmente o [[tamanho da amostra]]) cresce sem limites. Em outras palavras, aumentar o tamanho da amostra aumenta a probabilidade do estimador de estar próximo do parâmetro de população. Matematicamente, uma sequência de estimadores { tn , n ≥ 0} é um estimador consistente para o [[parâmetro]] ''θ'' se e somente se , para todo ''ϵ'' > 0, não importa quão pequena, temos
Um estimador que converge para um ''múltiplo'' de um parâmetro pode ser feito dentro de estimador consistente através da multiplicação do estimador de [[fator de escala]], isto é, o valor verdadeiro, dividido pelo valor assintótico do estimador. Isso ocorre com frequência na [[Parâmetros de escala|estimativa de parâmetros de escala]] de [[Dispersão estatística|medidas de dispersão estatística]].
 
; Normalidade assintótica
{{MainArtigo principal|Normalidade assintótica}}
Um estimador [[Distribuição assintótica|assintoticamente normal]] é um estimador consistente cuja distribuição em torno do parâmetro verdadeiro ''θ'' se aproxima de uma [[distribuição normal]] com desvio padrão encolhendo na proporção de <math>1/\sqrt{n}</math>, como o tamanho da amostra ''n'' cresce. Usando <math>\xrightarrow{D}</math> para denotar [[Convergência de variáveis aleatórias|convergência na distribuição]], ''t<sub>n</sub>'' é [[Normalidade assintótica|assintoticamente normal]] se
:<math>\sqrt{n}(t_n - \theta) \xrightarrow {D} N (0,V),</math>
para algum ''V''. Quando ''V / N'' é chamada de ''variância assintótica'' do estimador.
O [[teorema do limite central]] implica normalidade assintótica da [[média da amostra]] <math>\bar x</math> como um estimador da média verdadeira. Mais geralmente, [[máxima probabilidade|estimadores de máxima verossimilhança]] são assintoticamente normais sob condições de regularidade bastante fracos — consulte a [[máxima probabilidade|seção de assintóticos]] do artigo de máxima verossimilhança. No entanto, nem todos os estimadores são assintoticamente normal, os exemplos mais simples sendo o caso onde o verdadeiro valor de um parâmetro situa-se no limite da região de parâmetro admissíveis.
 
O [[teorema do limite central]] implica normalidade assintótica da [[média da amostra]] <math>\bar x</math> como um estimador da média verdadeira. Mais geralmente, [[máxima probabilidade|estimadores de máxima verossimilhança]] são assintoticamente normais sob condições de regularidade bastante fracos — consulte a [[máxima probabilidade|seção de assintóticos]] do artigo de máxima verossimilhança. No entanto, nem todos os estimadores são assintoticamente normal, os exemplos mais simples sendo o caso onde o verdadeiro valor de um parâmetro situa-se no limite da região de parâmetro admissíveis.
;Eficiência
 
{{Main|Eficiência (estatística)}}
; Eficiência
{{MainArtigo principal|Eficiência (estatística)}}
 
Duas propriedades naturalmente desejáveis ​​dos estimadores são eles serem não-enviesados e ter o mínimo erro quadrático médio (EQM). Estes não podem, em geral, tanto ser satisfeitas simultaneamente: um estimador enviesado pode ter menor [[erro quadrático médio]] (EQM) do que qualquer estimador não-enviesado; ver [[viés do estimador]].
 
Entre estimadores não-enviesados, muitas vezes existe um com a menor variância, chamada de variância mínima do estimador não-enviesado (ENE). Em alguns casos, existe um [[estimador eficiente]] não-enviesado, o que, além de ter a menor variância entre os estimadores não-enviesados, satisfaz o limite de [[Cramér-Rao]], que é um limite inferior absoluto na variância para as estatísticas de uma variável.
 
Quanto a tais "melhores estimadores não-enviesados", ver também limite de [[Cramér-Rao]], [[teorema de Gauss-Markov]], [[teorema Lehmann-Scheffé]], [[teorema Rao-Blackwell]].
 
; Robustez
Ver: [[Estimador robusto]], [[Estatística robusta]]
 
== Ver também ==
{{Refbegin|3}}
* [[Melhor estimador linear não-enviesado]] (MELNE)
{{Refend}}
 
== Referências ==
* {{Cite book
| last = Lehmann
| year = 1998
| isbn = 0-387-98674-X }}
* {{SpringerEOM|title=Statistical Estimator|id=s/s087360|first=L.N.|last=Bol'shev}}
 
== Ligações externas ==
==Links externos==
* [http://lmi.bwh.harvard.edu/papers/pdfs/2004/martin-fernandezCOURSE04b.pdf Fundamentals of Estimation Theory]
* India-Institute of Quantity Surveyors (IQSS)
 
41 864

edições