| Esta página ou seção foi marcada para revisão devido a incoerências ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor, verifique e melhore a coerência e o rigor deste artigo. Considere colocar uma explicação mais detalhada na discussão. |
Função de probabilidade da distribuição de Poisson para vários valores de λ.
Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade de variável aleatória discreta que expressa a probabilidade de uma série de eventos ocorrer num certo período de tempo se estes eventos ocorrem independentemente de quando ocorreu o último evento.
A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é

onde
- e é base do logaritmo natural (e = 2.71828...),
- k! é o fatorial de k,
- λ é um número real, igual ao número esperado de ocorrências que ocorrem num dado intervalo de tempo. Por exemplo, se o evento ocorre a uma média de 4 minutos, e estamos interessados no número de eventos que ocorrem num intervalo de 10 minutos, usaríamos como modelo a distribuição de Poisson com λ=10/4= 2.5.
Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.
A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.
Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.
Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:
em que λ é uma constante (de unidade inversa da unidade do tempo).
Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.
O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente[1]:
|
Em linguagem matemática |
Em Português
|
|
![{\displaystyle E\left[X\right]=\sum _{k=0}^{\infty }k\mathbb {P} \left[X=k\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/960828258dfd77c32b1d05311596e49ce5241053) |
Por definição, a esperança de uma variável aleatória X é igual à soma de cada uma das suas possíveis ocorrências ponderadas pela probabilidade de que estas ocorrências aconteçam.
|
|
![{\displaystyle E\left[X\right]=\sum _{k=0}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}},\,\!\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bc1e159c7abd1ff51518ade049738484e85a3704) |
No caso de variáveis com distribuição, a probabilidade de que determinado evento ocorra é calculado por : . Portanto, este valor foi substituído na fórmula.
|
|
![{\displaystyle E\left[X\right]={\begin{matrix}\underbrace {0\left[{\frac {e^{-\lambda }\lambda ^{0}}{0!}},\,\!\right]} \\k=0\end{matrix}}+{\begin{matrix}\underbrace {1\left[{\frac {e^{-\lambda }\lambda ^{1}}{1!}},\,\!\right]} \\k=1\end{matrix}}+{\begin{matrix}\underbrace {2\left[{\frac {e^{-\lambda }\lambda ^{2}}{2!}},\,\!\right]} \\k=2\end{matrix}}+...}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a23950541aed889561e135e2349fca59b81254ad) |
Esta expressão equivale à expressão da linha imediatamente superior; apenas se substituiu a expressão de somatório pela soma infinita para melhor compreensão. Note que como o primeiro termo é sempre igual a zero, podemos reescrever
|
|
Como ![{\displaystyle \sum _{k=1}^{\infty }k\left[{\frac {e^{-\lambda }\lambda ^{k}}{k!}}\right]=\sum _{k=1}^{\infty }\lambda \left[{\frac {e^{-\lambda }\lambda ^{k-1}}{(k-1)!}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/61a062cc2f03e9f878a00402f6ec2a9327fd04a6) |
Fazemos uma substituição para facilitar o cálculo.
|
|
![{\displaystyle E\left[X\right]=\lambda \sum _{k=1}^{\infty }\left[{\frac {e^{-\lambda }\lambda ^{k-1}}{(k-1)!}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5ec8a56756a9300b1908182b771b43bd0c4353dc) |
Tomamos a substituição acima e tiramos a constante para fora do somatório (pois o primeiro termo da expressão imediatamente superior é igual à .
|
|
![{\displaystyle E\left[X\right]=\lambda e^{-\lambda }\sum _{k=0}^{\infty }\left[{\frac {\lambda ^{k}}{(k)!}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1cc58a64bc6ac912afb61240c32b3b9dbc9d73f3) |
Nova transformação para facilitar os cálculos...
|
|
![{\displaystyle \left[{\frac {\lambda ^{0}}{(0)!}}+{\frac {\lambda ^{1}}{(1)!}}+{\frac {\lambda ^{2}}{(2)!}}+{\frac {\lambda ^{3}}{(3)!}}+...\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/24e8161f4e5296f3958118a6ce05479d98c9c0dc) |
Abrindo o somatório, verifica-se que a série converge para
|
|
![{\displaystyle E\left[X\right]=\lambda e^{-\lambda }e^{\lambda }}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a633c52d02a8d704a715490c8a08fee1c0c8e8cd) |
Obtemos
|
|
![{\displaystyle E\left[X\right]=\lambda }](https://wikimedia.org/api/rest_v1/media/math/render/svg/c8dc215d84f28ce4435ba584260efe34297b6219) |
Como queríamos demonstrar
|
Variância (
,
ou
)[editar | editar código-fonte]
A variância de uma distribuição de Poisson é igual a
, como podemos demonstrar.
Sabendo que
e
Calculamos o segundo momento
, para uma variável aleatória discreta:
Expandindo o somatório
Simplificando os termos ao quadrado com os fatoriais
Colocando
e
em evidência
fazendo
e
Série de Taylor Função Exponencial
converge para
Expandindo o somatório
Simplificando os termos ao quadrado com os fatoriais
Colocando
em evidência
fazendo
Série de Taylor Função Exponencial
converge para
Substituindo
e
em
A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se
segue uma distribuição de Poisson com parâmetro
e as variáveis aleatórias
são estatisticamente independentes, então
também segue uma distribuição de Poisson cujo parâmetro é igual à soma dos
.
Por exemplo,
é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e
é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média
.
Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012).[2] Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:


em seguida, os limites do parâmetro
são dadas por:
.
A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos:
- Chamadas telefônicas por unidade de tempo;
- Defeitos por unidade de área;
- Acidentes por unidade de tempo;
- Chegada de clientes a um supermercado por unidade de tempo;
- Número de glóbulos visíveis ao microscópio por unidade de área;
- Número de partículas emitidas por uma fonte de material radioativo por unidade de tempo.