Lei dos grandes números

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Uma ilustração da lei dos grandes números usando lançamentos de um único dado. A medida que aumenta o número de lançamentos, a média dos valores de todos os resultados se aproxima de 3,5.

A Lei dos Grandes Números (LGN) é um conceito fundamental em probabilidade, que declara:

Se um evento de probabilidade p é observado repetidamente em ocasiões independentes, a proporção da frequência observada deste evento em relação ao total número de repetições converge em direção a p à medida que o número de repetições se torna arbitrariamente grande.

Mais simplesmente, conforme uma experiência é repetida várias vezes, a probabilidade observada aproxima-se da presente (ou real) probabilidade.

O conceito, como usado em probabilidade e estatística, tem aplicações práticas na ciência, economia, agricultura, produção, negócios, e outras atividades importantes. Por exemplo, se não soubermos a probabilidade de algum evento natural (digamos, a probabilidade de chover), ou se não conhecemos a fração de alguma população que satisfaz uma condição (tal como quantas partes defeituosas foram produzidas numa linha de montagem) nós podemos descobrir esta probabilidade ou esta percentagem através de numerosas observações e experiências suficientes.

Definição formal[editar | editar código-fonte]

Sejam X_1,X_2,X_3... variáveis aleatórias independentes e identicamente distribuídas. Seja E(X_i)=\mu e Var(X_i)=\sigma^2 < \infty. Defina-se a média \overline{X_n}=\frac{1}{n}\sum_{i=1}^{n} X_i. Então, para cada \varepsilon > 0,

Lei Fraca dos Grandes Números: \overline{X_n} converge em probabilidade para \mu. Ou seja,  \lim_{n \to \infty} P\left ( \left| \overline{X_n} - \mu \right | < \varepsilon \right ) = 1 [1]

Lei Forte dos Grandes Números: \overline{X_n} converge quase certamente para o seu valor esperado (esperança) \mu. Ou seja, P\left ( \lim_{n \to \infty} \left| \overline{X_n} - \mu \right | < \varepsilon  \right ) = 1 [2]

Tanto para a Lei Fraca quanto para a Lei Forte dos Grandes números, tivemos a suposição de uma variância finita. Embora esta suposição seja verdadeira (e desejável) na maioria das aplicações ela é, em verdade, uma suposição mais forte do que o necessário. Ambas as leis se mantém sem esta suposição. A única condição necessária é que E(X_i)=\mu < \infty.[2]

Origens do termo[editar | editar código-fonte]

Jakob Bernoulli descreveu primeiramente a LGN de forma tão simples que até os homens mais estúpidos instintivamente sabem que é verdade. A despeito disso, ele levou mais de 20 anos para desenvolver uma prova matemática rigorosa o suficiente, o qual publicou em Ars Conjectandi (A arte da conjetura) em 1713. Ele o chamou de seu "Teorema Dourado", mas se tornou geralmente conhecido como "Teorema de Bernoulli". Em 1835, S.D. Poisson mais adiante descreveu sob o nome de La loi des grands nombres (A Lei dos Grandes Números).

Depois que Bernoulli e Poisson publicaram suas tentativas, outros matemáticos também contribuíram para o refinamento da lei, incluindo Chebyshev, Markov, Borel, Cantelli, Kolmogorov, Vapnik e Chervonenkis. Estes novos estudos deram vida a 2 proeminentes formas da Lei dos Grandes Números. Um é chamado de lei "fraca" e outra de lei "forte". Estas formas não definem leis diferentes, mas modos diferentes de representar a convergência da probabilidade medida ou observada, para a probabilidade real.

Probabilidade[editar | editar código-fonte]

A Lei dos Grandes Números é chamada de "o primeiro teorema fundamental de probabilidade". Foi derivado da analise de jogos de azar—sorteio de bilhetes de loteria ou arremesso de dados são regidos por probabilidade. Por exemplo, um dado "não viciado" de 6 lados pode aparecer igualmente 1, 2, 3, 4, 5 ou 6 pontos numa única jogada e se esses pontos são contados como números, é possível calcular o valor "médio" de uma lance.

Nós sabemos que depois de várias jogadas, um lance em seis resultará em um "1". Do mesmo modo, um lance em seis resultará em "2" e assim vai em todos os 6 lances possíveis. Contando os resultados numericamente, obtemos:

\frac{1}{6} \times 1 + \frac{1}{6} \times 2 + \frac{1}{6} \times 3 +\frac{1}{6} \times 4 +\frac{1}{6} \times 5 +\frac{1}{6} \times 6 = \frac{1+2+3+4+5+6}{6}=\frac{21}{6}= 3,5

Obviamente, não existe um lado do dado com 3,5 pontos, logo nenhum lance irá resultar no valor de "3.5". Mas depois de um grande número de lances registrados, o resultado médio de todos eles irá se aproximar cada vez mais de 3,5.

Ademais, em cada lance do dado, uma soma de cada vez que um particular resultado ocorra ("1", "2", "3", "4", "5" ou "6") irá, de modo crescente, aproximar-se de 1/6 do número total de lances.

Estatísticas[editar | editar código-fonte]

A LGN foi derivada por meio de analise probabilística. Estatísticas evoluem da teoria da probabilidade, e em estatística, LGN significa que é mais provável que uma amostra grande tenha a característica do todo do que uma amostra pequena.

Para ilustrar, imagine uma fábrica de engarrafamento de água produzindo 10.000 garrafas de água por dia. O gerente da fábrica mede o volume de água em um número grande (digamos 200) de garrafas produzidas naquele dia, e descobre que a média é de 0,997 litros. Neste caso, o gerente da fábrica pode concluir que a média de todas as garrafas naquele dia não é exatamente de 1 litro.

Referências

  1. CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Cengage Learning, 2010. Página 208.
  2. a b CASELLA, George, e BERGER, Roger L. Inferência estatística - tradução da 2ª edição norte-americana. São Paulo: Cengage Learning, 2010. Página 210.
  • Jakob Bernoulli, (Ars Conjectandi: Usum & Applicationem Praecedentis - Doctrinae in Civilibus, Moralibus & Oeconomicis, 1713, Chapter 4, Traduzido p/ o ingles por Oscar Sheynin)
  • Hacking, Ian. (1983, 19th-century Cracks in the Concept of Determinism )
  • Grimmett, G. R. and Stirzaker, D. R. (1992 Probability and Random Processes, 2nd Edition. Clarendon Press, Oxford. ISBN 0-19-853665-8.)
  • Richard Durrett (1995, Probability: Theory and Examples, 2nd Edition. Duxbury Press.)

Ver também[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]