Convergência de variáveis aleatórias

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Searchtool.svg
Esta página ou secção foi marcada para revisão, devido a inconsistências e/ou dados de confiabilidade duvidosa (desde setembro de 2009). Se tem algum conhecimento sobre o tema, por favor, verifique e melhore a consistência e o rigor deste artigo. Considere utilizar {{revisão-sobre}} para associar este artigo com um WikiProjeto e colocar uma explicação mais detalhada na discussão.

Em probabilidade, existem diferentes conceitos de convergência de variáveis aleatórias. A convergência de uma sequência de variáveis aleatórias para algum limite é um conceito importante da teoria das probabilidades, com aplicações em estatística e processos estocásticos.

Por exemplo, a média de n variáveis aleatórias não correlacionadas Yi, i = 1, …, n, é dada por:

X_n = \frac{1}{n}\sum_{i=1}^n Y_i\,,

e um resultado importante é que, quando n tende a infinito (com mais algumas condições sobre Y, por exemplo, a média de cada Yi é μ), então Xn converge em probabilidade (ver abaixo) para μ. Este resultado é conhecido como a lei fraca dos grandes números.

Outros conceitos são usados em outros teoremas, como o importante teorema do limite central.

No texto que se segue, assume-se que (Xn) é uma sequência de variáveis aleatórias, que X também é uma variável aleatória e que todas estão definidas no mesmo espaço de probabilidade (Ω, F, P).

Tipo de convergência Ferramentas matemáticas úteis em sua compreensão Teorema limite relacionado
Em distribuição Função geradora de momentos/ característica Teorema do limite central
Em probabilidade (implica convergência em distribuição) Desigualdade de Markov/ Chebyshev Lei fraca dos grandes números
Quase certa Lema de Borel-Cantelli Lei forte dos grandes números

[1]

Convergência em distribuição[editar | editar código-fonte]

Seja F1, F2, … uma sequência de funções distribuição acumulada correspondentes a variáveis aleatórias X1, X2, …, e seja F a função distribuição acumulada correspondente à variável aleatória X. Então define-se que a sequência Xn converge para X em distribuição quando:

\lim_{n\rightarrow\infty} F_n(a) = F(a),\,

para cada ponto a em que F seja contínua.

A convergência em distribuição costuma ser representada por uma letra \mathcal D colocada sobre a seta que indica convergência:

X_n \, \xrightarrow{\mathcal D} \, X

Outra forma de representar é através da letra d minúscula.

A convergência em distribuição é a forma mais fraca de convergência, e é chamada algumas vezes de convergência fraca (artigo principal: convergência fraca de medidas). No caso geral, a convergência em distribuição não implica nenhuma outra das convergências descritas neste artigo. Ela é, porém, a definição mais comum e útil de convergência de variáveis aleatórias. Esta noção de convergência é usada no teorema do limite central.

Um importante resultado, que pode ser empregado junto com a lei dos grandes números, é que se a função g: RR  é contínua, e se  Xn  converge em distribuição para X, então  g(Xn)  também converge em distribuição para g(X). (A prova disto pode ser feita pelo teorema da representação de Skorokhod.) Este fato pode ser usado como a definição da convergência em distribuição.

A convergência em distribuição também é chamada de convergência na lei, porque a palavra lei é algumas vezes usada como sinônimo da distribuição de probabilidades.

Convergência em probabilidade[editar | editar código-fonte]

É o tipo de convergência mais fraco, e, por isto, geralmente é bastante fácil de ser verificado [2] .

Uma sequência de variáveis aleatórias X_n=\left \{ X_1,X_2,X_3...,X_n \right \} converge para uma variável aleatória X em probabilidade quando

Em linguagem matemática Em Português
\lim_{n\rightarrow\infty}\Pr\left({\color{red}\left|X_n-X\right|}\geq\varepsilon\right)=0, para todo ε > 0 Quando n (=número de variáveis aleatórias) tende ao infinito, a probabilidade de a diferença {\color{red}\left|X_n-X\right|} ser maior que qualquer número positivo \varepsilon tende a zero.

Isto é o equivalente a dizer que[2] :

Em linguagem matemática Em Português
\lim_{n\rightarrow\infty}\Pr\left({\color{red}\left|X_n-X\right|}<\varepsilon\right)=1, para todo ε > 0 Quando n (=número de variáveis aleatórias) tende ao infinito, a probabilidade de a diferença {\color{red}\left|X_n-X\right|} ser menor que qualquer número positivo \varepsilon tende a 1 (um).

Formalmente, fixa-se δ > 0. Seja Pn a probabilidade de que Xn esteja fora de um intervalo de confiança de raio ε em torno de X. Se Xn converge em probabilidade para X então existe um valor N tal que, para todo nN, Pn é menor que δ.

A convergência em probabilidade é usualmente representada por uma letra 'P' colocada sobre a seta que indica convergência:

X_n \, \xrightarrow{P} \, X

Também encontra-se a notação:

\mbox{p}\!\!\!\lim_{n\rightarrow\infty\;} X_n  =  X, \,, ou simplesmente \operatorname{plim}\; X_n  =  X. \,

A convergência em probabilidade é a noção de convergência usada na lei fraca dos grandes números. A convergência em probabilidade implica a convergência em distribuição.


Convergência quase certa[editar | editar código-fonte]

Diz-se que uma sequência Xn converge quase certamente, quase em todo o lado, com probabilidade 1 ou fortemente para X quando

Em linguagem matemática Em Português
\Pr\left(\lim_{n\rightarrow\infty}X_n=X\right)=1 Quando n (=número de variáveis) tende ao infinito, a probabilidade de os valores de Xn se aproximarem do valor de X tende a 1(um).
Ou, o que é a mesma coisa, \Pr\left(\big\{\omega \in \Omega \, | \, \lim_{n \to \infty}X_n(\omega) = X(\omega) \big\}\right) = 1 A probabilidade de as funções X_n(\omega) convergirem para X(\omega) é 1 quando n tende ao infinito. Esta notação utiliza o espaço de probabilidades (Ω, F, P) e o conceito de que uma variável aleatória é uma função de Ω em R

A convergência quase certa costuma ser representada acrescentando as letras a.s. (do inglês almost sure) acima da seta que indica convergência:

X_n \, \xrightarrow{\mathrm{a.s.}} \, X

A convergência quase certa é um tipo de convergência mais forte do que a em probabilidade e por isso implica a convergência em probabilidade (mas o inverso não é verdadeiro) [3] . Esta é a noção de convergência usada na lei dos grandes números.

Convergência certa[editar | editar código-fonte]

Diz-se que uma sequência de variáveis aleatórias (Xn) definidas no mesmo espaço de probabilidades converge certamente ou em todo lugar ou pontualmente para X quando:

\lim_{n\rightarrow\infty}X_n(\omega)=X(\omega), \, \, \forall \omega \in \Omega.

em que \Omega é o espaço amostral em que as variáveis aleatórias estão definidas.

Esta é a noção de convergência pontual de uma sequência de funções estendida para uma sequência de variáveis aleatórias. Note-se que as variáveis aleatórias são funções.

\big\{\omega \in \Omega \, | \, \lim_{n \to \infty}X_n(\omega) = X(\omega) \big\} = \Omega.

A convergência certa implica as demais formas de convergência definidas acima, mas não existe benefício extra na teoria das probabilidades em se usar convergência certa em vez de convergência quase certa. A diferença entre elas aparece apenas em conjuntos de probabilidade zero, e este é o motivo da convergência certa ser um conceito raramente usado.

Convergência na média[editar | editar código-fonte]

Diz-se que uma sequência de variáveis aleatórias Xn converge na r-ésima média ou na norma Lr para X, quando r ≥ 1, E|Xn|r < ∞ para todo n, e

\lim_{n\rightarrow\infty}\mathrm{E}\left(\left|X_n-X\right|^r\right)=0

em que E é o operador esperança. A convergência na r-ésima média diz que o valor esperado da r-ésima potência da diferença entre Xn e X converge para zero.

Este tipo de convergência costuma ser representado acrescentando-se o símbolo Lr sobre a seta que indica convergência:

X_n \, \xrightarrow{L^r} \, X.

Os casos mais importantes de convergência na r-ésima média s~~ao:

  • Quando r = 1, diz-se que Xn converge na média para X.
  • Quando r = 2, diz-se que Xn converge na média quadrática para X. Algumas vezes esta convergência é chamada de convergência na média, e é representada[4]
\underset{n \to \infty}{\operatorname{l.i.m.}} X_n = X.\,\!

A convergência na r-ésima média, para r > 0, implica a convergência em probabilidade (pela desigualdade de Markov).

Se r > s ≥ 1, então a convergência na r-ésima média implica a convergência na s-ésima média. Corolário: convergência na média quadrática implica convergência na média.

Implicações[editar | editar código-fonte]

As relações causais entre os diferentes tipos de convergência (se converge segundo (A) então converge segundo (B)) estão mencionadas em cada sessão. Em resumo, temos:

  •  \xrightarrow{\textrm{a.s.}} \quad \Rightarrow \quad \xrightarrow{P} \quad \Rightarrow \quad \xrightarrow{\mathcal D}
  •  \forall r>0:\quad\xrightarrow{L^r} \quad \Rightarrow \quad \xrightarrow{P}
  • \forall r>s\geq1:\quad\xrightarrow{L^r} \quad \Rightarrow \quad \xrightarrow{L^s}

Em geral, não há outras relações de implicação. Alguns casos particulares, porém, permitem inverter as implicações:

  • Se Xn converge em distribuição para uma constante c, então Xn converge em probabilidade para c.
  • Se Xn converge em probabilidade para X, e se Pr(|Xn| ≤ b) = 1 para todo n e algum b, então Xn converge na r-ésima média para X para todo r ≥ 1. Ou seja, se Xn converge em probabilidade para X e todas variáveis aleatórias Xn são quase certamente limitadas (acima e abaixo), então Xn converge para X também em qualquer r-ésima média.
  • Se para todo ε > 0,
\sum_n P\left(|X_n - X| > \varepsilon\right) <\infty,
então dizemos que Xn converge quase completamente, ou rapidamente em probabilidade para X. Neste caso, Xn converge quase certamente para X. Ou seja, se Xn converge em probabilidade para X suficientemente rápido (i.e. a sequência de probabiliades das caudas é somável para todo ε > 0), então Xn também converge quase certamente para X. Este é um corolário do Lema de Borel-Cantelli.
S_n = X_1+\cdots+X_n
então Sn converge quase certamente se, e somente se, Sn converge em probabilidade.

\left. \begin{array}{ccc}
X_n\xrightarrow{a.s.} X
\\ \\
|X_n| < Y
\\ \\
\mathrm{E}(Y) < \infty
\end{array}\right\} \quad\Rightarrow \quad X_n\xrightarrow{L^1} X

Ver também[editar | editar código-fonte]

Notas[editar | editar código-fonte]

  1. LEBENSZTAYN, Élcio, e COLETTI, Cristian Flavio. Notas de aula. Probabilidade: teoria e exercícios. Departamento de estatística - Universidade de São Paulo.
  2. a b CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Centage Learning, 2010. ISBN 9788508947. Página 207.
  3. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Centage Learning, 2010. ISBN 9788508947. Páginas 209 e 210
  4. Porat, B.. Digital Processing of Random Signals: Theory & Methods. [S.l.]: Prentice Hall, 1994. 19 pp. ISBN 0130637513.

Ligações externas[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  • Billingsley, Patrick (1999). Convergence of Probability Measures. John Wiley & Sons, 2nd edition, pp. 1–28 ISBN 0471197459
  • G.R. Grimmett and D.R. Stirzaker (1992). Probability and Random Processes, 2nd Edition. Clarendon Press, Oxford, pp 271–285. ISBN 0-19-853665-8.
  • M. Jacobsen (1992). Videregående Sandsynlighedsregning (Advanced Probability Theory) 3rd Edition. HCØ-tryk, Copenhague, pp 18–20. ISBN 87-91180-71-6.