Usuária:MCarrera (NeuroMat)/Testes/Lei dos grandes números (fórmulas)

Origem: Wikipédia, a enciclopédia livre.

A lei dos grandes números (LGN) é um teorema fundamental da teoria da probabilidade, que descreve o resultado da realização da mesma experiência repetidas vezes. De acordo com a LGN, a média dos resultados da realização da mesma experiência repetidas vezes tende a aproximar–se do valor esperado à medida que mais tentativas se sucederem. Em outras palavras, quanto mais tentativas são realizadas, mais a probabilidade observada aproxima–se da probabilidade real.[1]

Usada em probabilidade e na estatística, a LGN tem aplicações práticas na ciência de modo geral, tal como na agricultura e na economia, dentre outras áreas importantes. É possível descobrir por meio de numerosas observações e de experiências suficientes a probabilidade de um evento natural acontecer (como por exemplo, a probabilidade de chover) ou de uma fração de uma população satisfazer a uma condição (por exemplo, a probabilidade de ser produzida uma determinada quantidade de peças defeituosas em uma linha de montagem).[2]

A lei dos grandes números é importante ainda porque garante resultados estáveis a longo prazo para médias de eventos aleatórios. Considere um jogo de roleta em um cassino. O cassino pode perder dinheiro em uma única rodada de uma roleta, mas os seus ganhos tenderão a aproximar–se de uma probabilidade previsível depois de um grande número de rodadas. De outra forma, qualquer série de vitórias de um apostador será superada pelos parâmetros do jogo depois de algumas rodadas.[3]

Entretanto, a LGN aplica–se apenas para um grande número de observações (não há princípio para que um pequeno número de observações coincida com o valor esperado ou para que a sequência de um valor seja superada por outro valor imediatamente).[1] Contextos como esse remetem à chamada falácia do apostador.

Exemplos[editar | editar código-fonte]

Sorteio de bolas[editar | editar código-fonte]

Ilustração da Lei dos Grandes Números, usando sorteio de bolas de uma urna. Seja um sorteio de bolas de uma urna contendo bolas azuis e bolas vermelhas na mesma proporção. Como quantidade de bolas azuis e bolas vermelhas dentro da urna são iguais, a porcentagem de vezes que as bolas azuis ou as bolas vermelhas serão sorteadas irá convergir para 0,5. Este número é exatamente a proporção de bolas azuis e bolas vermelhas dentro da urna.

A lei dos grandes número trata de um resultado matemático. Imagine uma experiência com uma urna contendo bolas brancas e pretas em uma certa proporção. Imagine um sorteio de bolas da urna, em que uma pessoa retira uma bola de olhos fechados e outra pessoa anota a cor da bola e devolve a bola para a urna. Várias bolas são retiradas sucessivamente. Se a experiência for realizada repetidas vezes, a frequência relativa de bolas pretas sempre irá convergir para um determinado número. Este número é a proporção de bolas pretas contidas na urna.[4]

Se a urna tiver a mesma quantidade de bolas brancas e pretas, a porcentagem de vezes que as bolas pretas serão sorteadas irá convergir para o número 0,5. Entretanto, se a urna tiver três bolas brancas e sete bolas pretas, a porcentagem de vezes que as bolas pretas serão sorteadas irá convergir para o número 0,7. Em outras palavras, a porcentagem de vezes que uma bola preta é sorteada é 70%.[4]

É possível verificar experimentalmente que a porcentagem de vezes em que uma bola preta é sorteada aproxima–se de um determinado número entre 0 e 1. Esse número é exatamente a proporção de bolas na urna, o que corresponde precisamente ao resultado matemático mencionado acima. Este resultado é um teorema da teoria da probabilidade, que afirma que quanto mais sorteios são realizados mais a proporção de bolas pretas aproxima–se de um número entre 0 e 1.[4]

Lançamento de dado[editar | editar código-fonte]

Ilustração da Lei dos Grandes Números, usando lançamentos de um único dado não viciado. A medida que aumenta o número de lançamentos, a média dos valores de todos os resultados se aproxima de 3,5.

Chamada de "Primeiro Teorema Fundamental de Probabilidade", a lei dos grandes números é derivada da análise de jogos de azar como sorteio de bilhetes de loteria ou arremesso de dados. Um dado não viciado de seis lados pode cair 1, 2, 3, 4, 5 ou 6 em uma única jogada, todos com igual probabilidade. É possível calcular o valor médio de um lance de um dado não viciado de seis lados. Depois de várias jogadas, um a cada seis lances cairá 1, um a cada seis lances cairá 2 e assim por diante com todos os seis resultados possíveis. Contando todos os seis resultados possíveis, obtemos:


[5]. (A fração de 1 por 6, vezes 1, mais a mesma fração, vezes 2, mais a mesma fração, vezes 3, ela, vezes 4, somado com ela vezes 5, novamente somando ela, vezes seis, igual a soma de 1 mais 2 mais 3 mais 4 mais 5 mais 6, por 6, ou seja, 21 dividido por 6, igual a 3,5)

Embora nenhum lado tenha o número 3,5 e nenhum lance resulte no valor 3,5, a LGN determina que a média dos lances de um dado não viciado de seis lados irá aproximar–se cada vez mais de 3,5 depois de um grande número de jogadas. Em outras palavras, a soma do resultado particular (1, 2, 3, 4, 5 ou 6) de cada lance irá se aproximar cada vez mais de um sexto do número total de jogadas.[5]

Fábrica de garrafas[editar | editar código-fonte]

A lei dos grandes números determina que é mais provável que uma grande amostra grande, ao invés de uma pequena, tenha a característica do todo. Dada uma fábrica de engarrafamento de água que produza 10 mil garrafas de água por dia: o gerente da fábrica mede o volume de água em um grande número de garrafas produzidas em um mesmo dia (por exemplo, 200 garrafas) e descobre que a média foi de 0,997 litros. O gerente da fábrica pode concluir pela LGN que a média de todas as 10 mil garrafas naquele dia não foi de exatamente 1 litro.

Distribuição de Bernoulli[editar | editar código-fonte]

Ver artigo principal: Distribuição de Bernoulli
Simulação, ilustrando a Lei dos Grandes Números. Você lança uma moeda vermelha (à direita) e azul (à esquerda) e coloca um ponto na coluna correspondente. Um gráfico de pizza mostra a proporção de pontos vermelhos ou azuis até o momento. Note que a proporção inicialmente pode variar muito, mas ela gradualmente aproxima–se de 50%.

Da lei dos grandes números deduz–se que a probabilidade empírica de sucesso em uma série de uma distribuição de Bernoulli irá convergir para a probabilidade teórica. Para uma variável aleatória de Bernoulli, o valor esperado é a probabilidade teórica de sucesso e a média de n variáveis aleatórias independentes e identicamente distribuídas é precisamente a frequência relativa.[6]

Um lançamento de uma moeda honesta é uma distribuição de Bernoulli. Quando uma moeda honesta é lançada uma vez, a probabilidade teórica de sair cara é igual a meio. Logo, a probabilidade de sair cara depois de um grande número de lançamentos deverá ser aproximadamente meio. De acordo com a LGN, a proporção de sair cara depois de n lançamentos irá convergir quase certamente para meio, à medida que n tende ao infinito.[7][8]

Embora a proporção de caras e coroas aproxime–se de meio, a diferença absoluta entre elas quase certamente irá aumentar à medida que mais lançamentos forem realizados. Isto é, a probabilidade de a diferença absoluta ser um número pequeno irá aproximar–se de 0 à medida que mais lançamentos forem realizados. A proporção entre a diferença absoluta e o número de lançamentos também irá quase certamente aproximar–se de 0.[7][8]

Origem do termo[editar | editar código-fonte]

O matemático suíço Jakob Bernoulli (1654—1705) provou a LGN para variáveis aleatórias binárias, depois de o matemático italiano Girolamo Cardano (1501—1576) afirmar sem provas que a precisão das estatísticas empíricas tende a melhorar conforme o número de tentativas aumenta.[9] 

Bernoulli levou mais de vinte anos para provar a fórmula matemática, que foi publicada em seu livro "A Arte da Conjectura" (Ars Conjectandi) por seu sobrinho Nicolau Bernoulli em 1713. Bernoulli afirmou que quanto maior o número de tentativas, mais a proporção de tentativas bem–sucedidas se aproxima de p com probabilidade próxima de 1.[1] 

Bernoulli chamou a lei dos grandes números de "Teorema Dourado", porém o conceito ficou mais conhecido como "Teorema de Bernoulli". O teorema de Bernoulli não deve ser confundido com Princípio de Bernoulli, exposto mais tarde pelo seu outro sobrinho Daniel Bernoulli.[11]

Em 1837 o matemático francês Siméon Denis Poisson (1781—1840) também descreveu o conceito La Loi des Grands Nombres, que mais tarde ficou conhecido tanto como "Teorema de Bernoulli" quanto como pelo próprio nome da LGN, muito embora este último seja o nome mais usado.[12][13]

Depois das tentativas de Bernoulli e de Poisson, outros matemáticos contribuíram para o aprimoramento da LGN, incluindo Pafnuti Chebyshev, Andrei Markov, Émile Borel, Francesco Paolo Cantelli, Andrei Kolmogorov e Aleksandr Khinchin.[6]

Estes novos estudos deram origem a duas formas proeminentes da lei dos grandes números: a lei fraca dos grandes números e a lei forte dos grandes números. Tanto a lei fraca quanto a lei forte não definem conceitos diferentes, mas modos distintos de representar a convergência da probabilidade observada para a probabilidade real. Em particular, a lei forte implica a lei fraca.[6]

Definição formal[editar | editar código-fonte]

Sejam (os conjuntos X um, X dois, X três e sucessivamente ) variáveis aleatórias independentes e identicamente distribuídas.

Seja e [14]. (a esperança E das i.i.d Xi, igual a média MI) e (A Variância dos mesmos conjuntos Xi, igual a sigma ao quadrado)

Defina–se a média [14]. (desses conjuntos como a média aritmética, X-barra-n, igual a razão de 1 por n, vezes a somatória do primeiro elemento i igual a 1 até o seu n-éssimo conjunto de Xi)


Então, para cada , (épsilon positivo)
Na Lei Fraca dos Grandes Números, (média aritmética dos conjuntos X-barra-n) converge em probabilidade para (mi).
Isto é,[14]. (o limite quando a quantidade n tende ao infinito da probabilidade P do valor absoluto, módulo, da diferença entre a média aritmética X-barra-n e mi, menor do que o épsilon, igual a 1)
Na Lei Forte dos Grandes Números, (média dos conjuntos X-barra-n) converge quase certamente para o seu valor esperado (mi).
Isto é, [14]. (a probabilidade P do limite quando a quantidade n tende ao infinito do valor absoluto, módulo, da diferença entre a média aritmética X-barra-n e mi menor do que o épsilon, igual a 1)

Tanto para a lei fraca quanto para a lei forte, teve-se a suposição de uma variância finita. Embora seja verdadeira e desejável, na maioria das aplicações esta suposição é mais forte do que o necessário. Tanto a lei forte quanto a lei fraca se mantém sem essa suposição, de modo que a única condição necessária é que [14].

Entretanto, um exemplo em que a LGN não se aplica é a Distribuição de Cauchy. Sejam os números aleatórios iguais a tangente de um ângulo uniformemente distribuído entre − 90° e + 90°. A mediana é 0, mas o valor esperado não existe e a média dessas n variáveis tem a mesma distribuição de uma única variável. Isso não tende a 0 à medida que n tende ao infinito.[15]

Formas[editar | editar código-fonte]

A lei dos grandes números pode ser descrita de duas formas: a lei forte dos grandes números e a lei fraca dos grandes números, as quais diferem–se de acordo com a forma de convergência definida[16]. Ver variáveis aleatórias.

Considerando X1, X2, ... (os conjuntos X um, X dois e sucessivamente ) uma sequência infinita de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com valor esperado E(X1) = E(X2) = ... = µ, (Esperança E do conjunto 1, X1, igual a esperança E do conjunto 2, X2, sucessivamente até o conjunto n, Xn, igual a mi) ambas as versões da LGN determinam quase certamente que a média da amostra

(média aritmética, X-barra-n, igual ao produto entre a razão 1 por n e da soma dos conjuntos, X1, mais, X2, sucessivamente, mais Xn)

converge para o valor esperado

[16]. (média aritmética, X-barra-n tende a mi quando n tende ao infinito)

A suposição da variância finita Var(X1) = Var(X2) = ... = σ2 < ∞ (variância do conjunto 1, X1, igual a variância do conjunto 2, X2, sucessivamente até a variância do conjunto n, igual a sigma ao quadrado menor que o infinito) não é necessária. Embora a variância grande ou infinita torne a convergência mais lenta, a LGN é válida de qualquer maneira. Esta suposição muitas vezes é usada por tornar as provas mais curtas e fáceis.[16]

Lei Fraca[editar | editar código-fonte]

Também chamada de Lei de Khinchin, a versão fraca da LGN determina que a média da amostra converge em probabilidade para o valor esperado. A lei fraca determina essencialmente que qualquer margem diferente de 0 especificada (não importa o quão pequena ela seja, com uma amostra suficientemente grande haverá uma probabilidade muito alta que a média das observações se aproximará do valor esperado. Isto é, dentro da margem.[17]

A variância pode ser diferente para cada variável aleatória em séries, mantendo o valor esperado constante. Se as variâncias são limitadas, a lei fraca é aplicada como mostrou Chebyshev em 1867 (se os valores esperados mudarem durante as séries, podemos simplesmente aplicar a lei fraca para o desvio médio dos respectivos valores esperados. Então, a Lei Fraca determina que isto converge para probabilidade 0). Provas de Chebyshev valem para até quando a variância da média dos primeiros n valores tendem a 0 à media que n tende ao infinito.[18]

O nome "lei fraca" deve–se ao fato de as variáveis aleatórias convergirem de maneira fraca ou em probabilidade. O termo aplica–se no caso de as variáveis aleatórias independentes e identicamente distribuídas terem um valor esperado.[18]

Teorema[editar | editar código-fonte]

Seja (conjunto) uma sequência de variáveis aleatórias independentes tomadas dois a dois. Seja essa sequência de variância finita e uniformemente limitada. Tem–se a lei fraca da LGN. Também, podemos entender do ponto de vista algébrico como existe um , tal que [1]. (c pertence aos reais, tal que a variância do conjunto Xi é menor ou igual a c)

Demonstração[editar | editar código-fonte]

Uma soma de uma sequência de variáveis aleatórias pode ser escrita como

. (a soma dos conjuntos Sn, igual a somatória do primeiro elemento i igual a 1 até o n-éssimo elemento dos conjuntos Xi)

A independência de (conjunto) implica em

[1]. (variância da soma dos conjuntos Sn, igual a somatória do primeiro elemento i igual a 1 até o n-éssimo elemento da variância do conjunto Xi, menor ou igual ao produto de n e c)

Prova da Lei Fraca, usando a Desigualdade de Chebyshev[editar | editar código-fonte]

Ver artigo principal: Desigualdade de Chebyshev

De acordo com a Desigualdade de Chebyshev, temos:
, quando [19]. (probabilidade do valor absoluto da diferença entre a soma dos conjuntos Sn e a esperança E da soma dos conjuntos Sn , maior ou igual ao produto de epsilon e n, isso menor ou igual a razão da variância da soma dos conjuntos Sn e o produto de epsilon ao quadrado e n ao quadrado, isso menor ou igual a razão de c e o produto de epsilon ao quadrado e n ao quadrado tendendo a zero quando n tende ao infinito)
Logo, obtemos:
(razão da diferença entre a soma dos conjuntos Sn com a esperança E da soma dos conjuntos Sn e n), lembrando que está convergindo para 0 com a probabilidade.[19]

Prova da Lei Fraca, usando a Convergência de Funções Características[editar | editar código-fonte]

De acordo com o Teorema de Taylor para funções complexas, a função característica para qualquer variável X com média finita μ pode ser escrita como:
[20]. (um certo x, phí-x está em função de t, isso é uma função, igual a 1, mais o produto de i, t e mi, mais óh em função de t, isso quanto t tende a zero)
Todo X1, X2, ... (os conjuntos X1, X2 e sucessivamente ) possuem a mesma função característica. Então, iremos simplesmente denotar isto como φX.(Função phi de x, caractere phi maiúsculo) Entre as propriedades básicas das funções características estão:
(uma certa razão x de 1 por n, phi está em função de t, isso é uma função, igual a um certo phi-x em função da razão de t por n) e (a soma de um certo x e y, phi-x+y em função de t, igual ao produto de um certo x, phi em função de t e um certo y, phi em função de t) , se X eY forem independentes[20].
Estas regras podem ser usadas para calcular a função característica de em termos de φX:

[20]. (um certo x, média, phi em função de t, igual a potência n do produto de um certo x, phi e a razão de t por n, igual a 1 mais o produto de i, mi e razão t por n mais o produto de o (óh) e a razão de t por n, tende a potência i,t e mi de e)

O limite eitμ (potência i,t e mi de e) é a função característica da variável aleatória constante μ, e, portanto, de acordo com o Teorema de Continuidade de Levy, converge em distribuição para μ:

[20]. (média aritmética dos conjuntos tende com probabilidade para mi quando n tende ao infinito)
μ é uma constante, o que implica que a convergência em distribuição para μ e a convergência em probabilidade para μ são equivalentes[20]. Veja convergência de variáveis aleatórias.
Então,
[20]. (média aritmética dos conjuntos tende com probabilidade para mi quando n tende ao infinito)

Isto mostra que a média da amostra converge em probabilidade para a derivada da função característica na origem, enquanto a função característica existir.[20]

Lei Forte[editar | editar código-fonte]

A versão forte da LGN afirma que a aproximação pela frequência relativa tende a melhorar quando o número de observações aumenta. Para saber as intenções de voto para um candidato nas eleições presidenciais é possível realizar uma pesquisa perguntando para a população em quem pretendem votar. Essa análise terá maiores chances de acerto à medida que mais pessoas forem consultadas, em bairros, cidades e estados diferentes e em dias, semanas e meses distintos.[21]

Especificamente, a lei forte determina que a média de uma sequência de variáveis aleatórias independentes e identicamente distribuídas com probabilidade "1" converge para a média da distribuição. Isto é, quanto maior o conjunto das observações dos dados mais próximo ele estará da sua própria média. Portanto, nenhuma informação é desconsiderada implicando na probabilidade 1.[22][23]

O nome "lei forte" deve–se ao fato de as variáveis aleatórias que convergem de maneira forte ou quase certamente convergem de maneira fraca ou em probabilidade, sendo que convergência quase certa também é chamada de convergência forte de variáveis aleatórias.[22][23]

Retoma-se aqui a ideia de que a lei forte implica a lei fraca, embora o contrário não aconteça, quando as condições para a lei forte garantem que a variável convirja tanto fortemente ou quase certamente quanto fracamente ou em probabilidade. A lei fraca pode acontecer em condições em que lei forte não pode acontecer, de modo que a convergência é apenas em probabilidade. Entretanto, até agora não foi possível provar que as condições da Lei Forte são as mesmas condições da lei fraca.[22][23]

Teorema[editar | editar código-fonte]

Seja (os conjuntos X um, X dois, X três e sucessivamente até Xn) uma sequência de variáveis aleatórias independentes e identicamente distribuídas, cada uma com média finita (mi, igual a esperança do conjunto Xi) . Então, com probabilidade 1 na qual podemos entender com a expressão matemática:[24]

. (a probabilidade P do limite, quando n tende ao infinito da média aritmética igual a mi, é igual a 1.)

Em palavras, representa a quantidade de conjuntos. Para se obter a média de um conjunto de 2 elementos, basta dividir por 2, o que resulta em média 1. Para se obter a média de uma quantidade grande de conjuntos, basta dividir pela sua quantidade de conjuntos. Portanto, em todos os casos de quantidade grande de conjuntos, podemos olhar quando está no infinito, mas não é o infinito. Isto é, no caso geral estuda-se quando o comportamento da média pode ser a maior de todas, o que leva ao infinito do ponto de vista algébrico. É importante destacar a sutileza entre as propriedades de Limite, as quais afirmam que a razão entre um numero e o infinito será 0. Em estatística, intuitivamente a probabilidade disto acontecer é 1.[1]

Como exemplo de aplicação da lei forte, suponha que seja realizada uma sequência de tentativas independentes de um experimento. Suponha que seja um evento fixo do experimento e que a probabilidade deste evento represente a probabilidade de que ocorra em qualquer tentativa particular. Fazendo com base na Distribuição Bernoulli

(Xi será igual a 1 se E ocorrer na i-éssima tentativa ou xi será igual a 0 se E ocorrer na i-éssima tentativa)

temos pela Lei Forte que com probabilidade 1,

. (média aritmética: razão da soma dos conjuntos X1+X2+sucessivamente até Xn e n, isso tende a esperança E de X, igual a probabilidade P de E)

Como (média aritmética dos conjuntos) representa o número de vezes em que o evento ocorre nas primeiras tentativas, podemos interpretar a expressão (média aritmética: a razão entre a soma dos conjuntos X1, mais, X2, mais, sucessivamente até mais Xn e n tendendo a esperança E de X, igual a probabilidade P de E) como se com probabilidade 1 a proporção limite do tempo de ocorrência do evento fosse justamente (probabilidade de E) Embora o teorema possa ser demonstrado sem esta hipótese, a demonstração seguinte da lei forte supõe que as variáveis aleatórias possuem um quarto momento finito. Isto é, supomos que [1]. (A esperança E da quarta potência do conjuntos Xi, igual a K, menor do que infinito)

Demonstração[editar | editar código-fonte]

A demonstração da lei forte é mais complexa que a demonstração da lei fraca.[23] A lei forte justifica a interpretação intuitiva do valor esperado de uma variável aleatória quando testada repetidamente como a média de longo prazo.

Suponha que a média de seja igual a 0. Isto é, . (mi, igual a zero)

Também considere a soma das médias, na qual é representada por . (Sn, igual a somatória de i igual a um até n do conjunto Xi)
Podemos verificar o valor esperado desta soma na linguagem algébrica como (esperança E da quarta potência de Sn, ou seja Sn elevado a quatro), isto devido ao interesse no quarto momento finito. Lembrando que a soma pode ser escrita como . (Sn, igual a soma dos conjuntos, X um , mais X dois, sucessivamente até mais Xn)
Seja a potência 4 para o valor esperado, temos do ponto de vista algébrico por decorrência das propriedades de potência a expressão
. (A quarta potência de Sn, igual a soma do conjunto X um, mais X dois, sucessivamente até Xn, vezes, a soma do conjunto X um, mais X dois, sucessivamente até Xn, vezes, a soma do conjunto X um, mais X dois, sucessivamente até Xn, vezes, a soma do conjunto X um, mais X dois, sucessivamente até Xn)
Intencionando calcular o valor esperado para a soma, encontramos a expressão
. (A esperança E da quarta potência de Sn, ou seja Sn elevado a quatro)
Já aplicando o método simples da distributiva nos fatores do valor esperado, obtemos uma expansão que resulta em termos e, ( A quarta potência de Xi, ou seja Xi elevado a quatro. O cubo de Xi, ou seja Xi elevado a três, vezes Xj. O quadrado de Xi, seja Xi elevado a dois, vezes o quadrado de Xj, ou seja Xj elevado a dois. O quadrado de Xi, seja Xi elevado a dois, vezes Xj, vezes Xk. E, Xi vezes Xj vezes Xk vezes Xl) em que e são todos diferentes.
Como por suposição todas as variáveis aleatórias têm média 0, resulta da independência destas variáveis que
( Esperança E, do cubo de X, vezes Xj. Igual, esperança E do cubo de Xi, vezes a esperança E de Xj)
(A esperança do quadrado de Xi, vezes Xj, vezes Xk. Igual, a esperança do quadrado de Xi, vezes a esperança de Xj, vezes a esperança)
( A esperança de Xi, vezes Xj, vezes Xk, vezes Xl )

Para um dado par e , haverá (binomial: quatro termos, dois a dois. Igual, a seis) termos na expansão que serão iguais a . (o quadrado de Xi, vezes o quadrado de Xj)
Expandido o produto anterior e calculando as esperanças ou o valor esperado termo a termo, obtemos
. (A esperança da quarta potência de Sn. Igual, n, vezes a esperança da quarta potência de Xi. Mais, seis, vezes o binomial: de n termos dois a dois. Vezes, esperança do quadrado de Xi, vezes o quadrado de Xi. Igual, n, vezes k. Mais três-n, vezes n menos um, vezes a esperança do quadrado de Xi, vezes o quadrado de Xj)
Por hipótese de independência, agora como
( zero, menor ou igual a variância do quadrado de Xi. Igual, a esperança E da quarta potência de Xi. Menos, o quadrado da esperança do quadrado de Xi)
temos
. (o quadrado da esperança E do quadrado de Xi, menos ou igual a esperança E da quarta potência de Xi. Igual, a K)
Do desenvolvimento anterior, obtemos que
( A esperança E da quarta potência de Sn, menor ou igual a n, vezes K, mais três n, vezes n menos um)

o que implica em
. (a esperança E da razão da quarta potência de Sn por a quarta potência de n. Menor ou igual, a razão de K por o cubo de n, mais a razão de três K por o quadrado de n)
Portanto,
. (A esperança E da somatória de n igual a um até o infinito da razão da quarta potência de Sn por a quarta potência de n. Igual, a somatória de n igual a um até o infinito da esperança E da razão da quarta potência de Sn por a quarta potência de n)

Lembrando que para a probabilidade 1, . (a somatória de n igual a um até o infinito da razão da quarta potência de Sn por a quarta potência de n. Menor que o infinito)
Se for , a soma converge para 0. Portanto, seu resultado será 0. Em estatística, se houver a probabilidade positiva de que a soma seja infinita, então o seu valor esperado é infinito. Entretanto a convergência da série implica que seu -ésimo termos tenda a 0. Portanto, concluímos que com probabilidade 1
[1]. ( o limite de n tendendo ao infinito da razão da quarta potência de Sn por a quarta potência de n)
Entretanto, se ( a razão razão da quarta potência de Sn por a quarta potência de n. Igual, a quarta potência da razão de Sn por n) tende a , então (a razão de Sn por n) também tenderá a . Essa é a prova com probabilidade 1[1].
Quando é a média de diferente de 0, podemos aplicar o argumento anterior às variáveis aleatórias (diferença entre Xi e mi) para obtermos que com probabilidade 1
[1]. ( o limite de n tendendo ao infinito da somatória de i igual a um até n, da razão entre a diferença de Xi e mi por n)
Isto é,
[1]. ( o limite de n tendendo ao infinito da somatória de i igual a um até n, da razão entre Xi por n)

Lei Forte de Kolmogorov[editar | editar código-fonte]

A lei forte pode por si só ser vista como um caso especial de Teoria Ergódica e aplica–se para variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) com um valor esperado como a Lei Fraca, o que foi provado por Kolmogorov em 1930. Em 1933, Kolmogorov também mostrou que se as variáveis são independentes e identicamente distribuídas, para a média convergir quase certamente para algo (o que pode ser considerado outra afirmação da Lei Forte) é necessário que elas tenham um valor esperado (então, a média irá convergir quase certamente no valor esperado).[6]

Se a soma é independente e não identicamente distribuída, logo:

(a média aritmética, X-barra-n, menos a esperança da média aritmética, x-barra-n. Tende a zero.)

dado que cada Xk possui um segundo momento finito e que

[25]. ( a somatória de k igual a um até o infinito da razão de um por o quadrado de k, vezes a variância de Xk. Menor que o infinito)

Esta afirmação é conhecida como a Lei Forte de Kolmogorov[26].

Um exemplo de uma série em que a lei fraca aplica–se, mas a lei forte não se aplica, é quando Xk é maior ou menor que ( a raiz quadrada da razão de k por logaritmo de base dez de logaritmo de base dez de logaritmo de base dez de k) (iniciando com k suficientemente grande para que o denominador seja positivo) com probabilidade meio para cada. Logo, a variância de Xk é Lei Forte de Kolmogorov não aplica–se porque a soma parcial em seu critério de até k = n é assintótica para e isto não possui limites.

Se substituirmos as variáveis aleatórias pelas variáveis gaussianas com as mesmas variâncias, denominadas ( a raiz quadrada da razão de k por logaritmo de base dez de logaritmo de base dez de logaritmo de base dez de k) , a média em qualquer ponto também será normalmente distribuída. A largura da distribuição da média tenderá a 0 (desvio padrão assintótico ) ( a razão de um por a raiz quadrada de dois por logaritmo de base dez de logaritmo de base dez de logaritmo de base dez de n), mas para um dado ε há probabilidade que não tende a 0 com n cuja média retornará para ε em algum momento depois da enésima tentativa. Isto acontecerá com probabilidade p(ε)/2 (razão da probabilidade p em função de epsilon por dois) antes de algum m que depende de n.

Entretanto, mesmo depois de n ainda há a probabilidade de pelo menos p(ε) (probabilidade p em função de epsilon) de que isto irá acontecer (o que parece indicar que p(ε)=1 (probabilidade p em função de epsilon. Igual, a um) e que a média irá alcançar ε infinitas vezes).

Diferenças entre a Lei Forte e a Lei Fraca[editar | editar código-fonte]

Lei Fraca mostra que para qualquer grande valor de especifico (adotando como ), é provável que ( média aritmética: razão de X-um, mais X-dois, sucessivamente até mais Xk por k) esteja próximo de . Entretanto, isto não significa que ( média aritmética: razão de X-um, mais X-dois, sucessivamente até mais Xn por n) permanecerá próximo de para todos os valores de maiores de .

Existe a possibilidade de que grandes valores de (Valor absoluto, módulo, da média aritmética: razão de X-um, mais X-dois, sucessivamente até mais Xn por n. Menos mi) possam ocorrer de forma infinitamente frequente, porém a lei forte mostra que isto não pode ocorrer. Em particular, ela implica que isto não pode ocorrer com probabilidade 1 para qualquer valor positivo .

A lei fraca, por sua vez, determina que para um tamanho específico n, a média (média aritmética X-barra-n) deve ficar próxima de . Logo, isso deixa aberta a possibilidade de (valor absoluto, módulo, da diferença entre a média aritmética e mi. Maior que epsilon) acontecer infinitos números de vezes, embora em intervalos infrequentes (não necessariamente (valor absoluto, módulo, da diferença entre a média aritmética e mi. Diferente de zero) para todo n).

A lei forte mostra que isso quase certamente não acontece. Em particular, isso implica que com probabilidade 1 temos que para qualquer ε > 0 a desigualdade (valor absoluto, módulo, da diferença entre a média aritmética e mi. Menor que epsilon) é verdadeira para todo n grande suficiente. Lei Forte não se sustenta nos seguintes casos, ao contrário da lei fraca:

  1. Seja x uma variável aleatória distribuída exponencialmente com parâmetro 1. A variável aleatória (razão: seno de x, vezes a potência x de e por x) não tem valor esperado, de acordo com a Integral de Lebesgue. Entretanto, usando a convergência condicional e interpretando a integral como a Integral de Dirichlet, a qual é impropriamente a Integral Riemann, é possível afirmar que . (esperança E da razão: seno de x, vezes a potência x de e por x. Igual, integral de zero até o infinito da razão seno de x, vezes a potência x de e por x, vezes a potência negativa-x de e, diferencial em x. Igual, a razão de pi por dois)
  2. Seja x uma distribuição geométrica com probabilidade 0,5. A variável aleatória (razão: A potência x de dois, vezes a potência x de um-negativo por x) não tem valor esperado no sentido convencional porque séries convergentes não são absolutamente convergentes. Entretanto, usando a convergência condicional, é possível afirmar que . ( A esperança E da razão: A potência x de dois, vezes a potência x de um-negativo por x. Igual, somatória de um até o infinito da razão: a potência x de dois, vezes a potência x de um-negativo por x, vezes a potência negativa-x. Igual ao negativo-logaritmo-natural de dois)
  3. Se a função de distribuição acumulada de uma variável aleatória for
(F em função de x, F é uma função. Igual, a razão: e por dois-x, vezes logaritmo-natural de x. Quando x maior ou igual a e)
(F em função de x, F é uma função. Igual, a razão: e por negativo de dois-x, vezes negativo de logaritmo-natural de x. Quando x menor ou igual ao negativo-e)
Então, não há valor esperado, mas a lei fraca é verdadeira[27][28].

Lei Uniforme dos Grandes Números[editar | editar código-fonte]

Suponha que f(x,θ) seja uma função definida por θ ∈ Θ, contínua em θ. Então, para qualquer θ fixo, {f(X1,θ), f(X2,θ), …} será uma sequência de variáveis aleatórias independentes e identicamente distribuídas (i.i.d.) como a média da amostra desta sequência converge em probabilidade para E[f(X,θ)]. Este é o pointwise (em θ) da convergência.[29]

Lei Uniforme dos Grandes Números determina as condições sob as quais a convergência acontece uniformemente em θ[29].

Se

  1. Θ é compacto.
  2. f(x,θ) ( f em função de x e teta, f é uma função) é contínuo em cada θ ∈ Θ for quase todo x, e uma função mensurável de x em cada θ.
  3. existe uma função dominante d(x) (d em função de x, d é uma função) como E[d(X)] < ∞ (esperança E da função d, menor que o infinito), e . (a norma de f que está função de x e teta, menor ou igual a função d)

Então, E[f(X,θ)] (esperança de f em função de x e teta, f é uma função) é contínuo em θ (téta), e (supremo de téta-minúsculo pertencente a téta-maiúsculo da norma: razão de um por n da somatória de i igual a um até n de f em função de Xi e téta-minúsculo, menos a esperança E de f em função de X e téta-minúsculo, tendendo a zero quase certamente) Este resultado é útil pra garantir consistência de uma grande classe de estimadores[29][30][31].

Lei dos Grandes Números de Borel[editar | editar código-fonte]

A lei dos grandes números de Borel, denominada por Émile Borel, determina que se um experimento é repetido um grande número de vezes independentemente e sob condições idênticas, a proporção de vezes de qualquer evento específico ocorrer é aproximadamente igual a probabilidade da ocorrência do evento em uma tentativa particular (quanto maior o número de repetições melhor a aproximação tende a ser).[32]

Mais precisamente, se E denota o evento em questão, se p denota a sua probabilidade de ocorrência e se Nn(E) denota o número de vezes E ocorre nas primeiras n tentativas, então com probabilidade 1,[32]. (razão: Nn de E por n, tendendo para p)

Considerando a Desigualdade de Chebyshev, seja X uma variável aleatória com valor esperado finito μ e variância finita diferente de zero σ2 . Então, para qualquer número real k > 0, (k positivo, k maior que zero), (probabilidade: valor absoluto da diferença entre X e mi, maior ou igual k vezes sigma. Menor ou igual a razão de um por quadrado de k) Este teorema torna rigorosa a noção intuitiva de probabilidade como a frequência relativa de longo prazo da ocorrência de um evento. Este é um caso especial de umas dos muitas leis gerais dos grandes números na Teoria da Probabilidade[32].

Ver também[editar | editar código-fonte]

Leituras adicionais[editar | editar código-fonte]

  • DURRETT, Richard. Probability: Theory and Examples.
  • GRIMMETT, Geoffrey R; STIRZAKER, David R. Probability and Random Processes.
  • HAZEWINKEL, Michiel. Law of large numbers. Encyclopedia of Mathematics.
  • LEHMANN, Erich L.; ROMANO, Joseph P. Testing Statistical Hypotheses.

Referências

  1. a b c d e f g h i j k ROSS, Sheldon. Probabilidade: Um Curso Moderno com Aplicações.
  2. LOPES, Eric. Lei dos Grandes Números em Sistemas Aparentemente Aleatórios. Disponível em: <http://vigo.ime.unicamp.br/Projeto/2011-1/ms777/ms777_Eric.pdf>
  3. CAMPOS, Celso Ribeiro; et al. Quebrando a Banca: A Probabilidade e os Cassinos. Prometeica: Revista de Filosofía y Ciencia. Disponível em: <https://www.prometeica.com/ojs/index.php/prometeica/article/view/24/24>
  4. a b c GALVES, Antonio. A Brain Soccer Derby: A NeuroMat Story, NeuroMat. Disponível em: <http://neuromat.numec.prp.usp.br/content/brain-soccer-derby-neuromat-story-antonio-galves>.
  5. a b Lei dos Grandes Números. Portal Action. Disponível em: < http://www.portalaction.com.br/probabilidades/72-lei-dos-grandes-numeros>.
  6. a b c d SENETA, Eugene. A Tricentenary History of the Law of Large Numbers. Disponível em: <https://projecteuclid.org/download/pdfview_1/euclid.bj/1377612845>
  7. a b LIBERAL, Tarciana. Distribuições de Bernoulli e Binomial. Disponível em: <http://www.de.ufpb.br/~tarciana/MPIE/Aula7.pdf>.
  8. a b COLCHER, Sérgio. Algumas Distribuições. Disponível em: <http://www.inf.puc-rio.br/~inf2511/inf2511_files/menu/material/transparencias/07-Distribuicoes.pdf>
  9. MLODINOW, Leonard. The Drunkard's Walk: How Randomness Rules our Lives
  10. BERNOULLI, Jakob. Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus e Oeconomicis.
  11. BERNSTEIN, Peter L. Desafio aos Deuses: A Fascinante História do Risco.
  12. POISSON, Siméon-Denis. Probabilité des Jugements en Matière Criminelle et en Matière Civile, Précédées des Règles Générales du Calcul des Probabilitiés.
  13. HACKING, Ian. Nineteenth Century Cracks in the Concept of Determinism. Journal of the History of Ideas.
  14. a b c d e CASELLA, George; BERGER, Roger L. Inferência Estatística.
  15. Distribuição de Cauchy. Portal Action. Disponível em: <http://www.portalaction.com.br/probabilidades/68-distribuicao-de-cauchy>.
  16. a b c Law of Large Numbers. Encyclopedia of Mathematics. Disponível em: <http://www.encyclopediaofmath.org/index.php?title=Law_of_large_numbers&oldid=26552>.
  17. LOÈVE, Michel. Probability Theory I.
  18. a b ROSALES, Rafael A. Introdução a Estatística e Probabilidade II. Disponível em: < http://dcm.ffclrp.usp.br/~rrosales/aulas/exe-sta-man-2012.pdf>.
  19. a b CHEBYSHEV, Pafnuti. Démonstration Élémentaire d'une Proposition Générale de la Théorie des Probabilités. Journal für die Reine und Angewandte Nathematik.
  20. a b c d e f g Lei Fraca dos Grandes Números. Portal Action. Disponível em: <http://www.portalaction.com.br/probabilidades/721-lei-fraca-dos-grandes-numeros>.
  21. Probabilidade em Estatística e Lei dos Grandes Números. InfoEscola. Disponível em: <http://www.infoescola.com/matematica/probabilidade-em-estatistica-e-lei-dos-grandes-numeros/>.
  22. a b c Strong Law of Large Numbers. Encyclopedia of Mathematics. Disponível em: <http://www.encyclopediaofmath.org/index.php?title=Strong_law_of_large_numbers&oldid=26960>.
  23. a b c d The Strong Law of Large Numbers. Terry Tao. Disponível em: <https://terrytao.wordpress.com/2008/06/18/the-strong-law-of-large-numbers/>
  24. ROSS, Sheldon. Probabilidade: Um curso moderno com aplicações.
  25. MAGALHÃES, Marcos Nascimento. Probabilidade e Variáveis Aleatórias.
  26. SEN, Pranab K; SINGER, Julio M. Large Sample Methods in Statistics.
  27. MUKHERJEE, Sayan. Law of Large Numbers. Disponível em: <http://www2.stat.duke.edu/courses/Fall09/sta205/lec/lln.pdf>.
  28. GEYER, Charles J. The Weak Law of Large Numbers. Disponível em: <http://www.stat.umn.edu/geyer/8112/notes/weaklaw.pdf>.
  29. a b c RODRÍGUEZ, Carlos C. Uniform Laws of Large Numbers. Disponível em: <http://omega.albany.edu:8008/machine-learning-dir/notes-dir/vc1/vc.pdf>.
  30. NEWEY, Whitney K.; MCFADDEN, Daniel. Large Sample Estimation and Hypothesis Testing.
  31. JENRICH, Robert I. Asymptotic Properties of Non-Linear Least Squares Estimators. The Annals of Mathematical Statistics.
  32. a b c WEN, Liu. An Analytic Technique to Prove Borel's Strong Law of Large Numbers. The American Mathematical Monthly. Disponível em: <http://www.jstor.org/stable/2323947?seq=1#page_scan_tab_contents>.

Ligações externas[editar | editar código-fonte]


Categoria:Teoria das probabilidades Grandes Numeros