Usuária:MCarrera (NeuroMat)/Distribuição de probabilidade(leitura de fórmulas)

Origem: Wikipédia, a enciclopédia livre.

Em teoria da probabilidade e em estatística, uma distribuição de probabilidade descreve o comportamento aleatório de um fenômeno dependente do acaso. O estudo dos fenômenos aleatórios começou com o estudo dos jogos de azar – jogos de dados, sorteios de bolas de urna e cara ou coroa eram motivações para compreender e prever os experimentos aleatórios. Essas abordagens iniciais são fenômenos discretos, o que significa que o número de resultados possíveis é finito ou contável. Entretanto, certas questões certas questões revelam distribuições de probabilidade com suporte infinito não contável, por exemplo, quando o lançamento de uma moeda tende ao infinito, o número de coroas aproxima-se de uma distribuição normal.

Flutuações e variabilidade estão presentes em quase todo valor que pode ser medido durante a observação de um fenômeno, independente de sua natureza, além disso quase todas as medidas possuem uma parte de erro intrínseco. A distribuição de probabilidade pode modelar incertezas e descrever fenômenos físicos, biológicos, econômicos, entre outros. O domínio da estatística permite o encontro das distribuições de probabilidade adaptadas aos fenômenos aleatórios.

Há muitas distribuições de probabilidade diferentes. Entre as distribuições de probabilidade, a distribuição normal tem uma importância particular. De acordo com o teorema central do limite, a distribuição normal aborda o comportamento assintótico de várias distribuições de probabilidade.

O conceito de distribuição de probabilidade é formalizado matematicamente pela teoria da medida – uma distribuição de probabilidade é uma medida muitas vezes vista como uma distribuição que descreve o comportamento de uma variável aleatória discreta ou contínua. Uma medida é uma distribuição de probabilidade se sua massa total for 1. O estudo de uma variável aleatória de acordo com uma distribuição de probabilidade discreta revela o cálculo de somas e de séries, enquanto que o estudo de uma variável aleatória de acordo com uma distribuição de probabilidade absolutamente contínua revela o cálculo de integrais. As funções particulares permitem caracterizar as distribuições de probabilidade como a função de distribuição e a função característica.

Definição informal[editar | editar código-fonte]

Teoricamente uma descrição de probabilidade descreve a característica aleatória de uma experiência aleatória.[1][2] O conceito de experiência aleatória surgiu para descrever um processo real de natureza experimental, em que o acaso intervém com resultados possíveis bem identificados[3], por exemplo, em um lançamento de um dado (um evento aleatório) os resultados podem ser um número entre 1 e 6 com igual probabilidade (de acordo com a distribuição de probabilidade, há a mesma chance de sairem os seis resultados com probabilidade igual a um sexto).

Historicamente distribuições de probabilidade foram estudadas em jogos de azar, jogos de dados, jogos de cartas, entre outros. Se os possíveis resultados dos fenômenos forem números contáveis, a distribuição de probabilidade é chamada discreta. Dar a distribuição de probabilidade significa dar a lista de valores possíveis com suas probabilidades associadas.[1] Ela é dada por meio de uma fórmula, uma tabela de valores, uma árvore de probabilidade ou funções (que serão detalhadas nas seções seguintes).

Em um contexto mais amplo, se os números dos resultados possíveis de um fenômeno aleatório forem finitos (contáveis ou incontáveis) em vez de infinitos, a distribuição de probabilidade descreve a distribuição de probabilidade dos resultados possíveis, mas caracterizados como funções (funções densidade, funções distribuição, entre outros) ou como medidas.

Histórico[editar | editar código-fonte]

Ilustração de uma pirâmide formada por feixes convergentes que superam uma curva de Gauss. Ela representa a placa de Galton, concebida em 1889, usada para visualizar a curva de Gauss como distribuição limite.

O uso do acaso existe desde os tempos antigos, especialmente em jogos de azar, em apostas de riscos de transportes marítimos ou em rendas vitalícias.[3] Entretanto, uma das primeiras referências conhecidas para os cálculos de probabilidade é um cálculo elementar sobre a Divina Comédia que aparece apenas no século XV durante o Renascimento.[4] Os primeiros tratados formam o início da teoria da probabilidade, principalmente com base em probabilidades combinatórias. Os problemas surgem à respeito da duração de um jogo de cartas:

Reconhece-se a probabilidade (a aposta) de uma variável (a duração de um jogo) ser menor que um valor (um certo número determinado), que representa a função de distribuição da distribuição de probabilidade de um jogo.

Essa é a tese de Nicolau Bernoulli, publicada em 1711, em que aparece pela primeira vez a distribuição uniforme.[6] Então, outras distribuições então apareceram como a distribuição binomial e a distribuição normal, embora suas abordagens não sejam completamente rigorosas[6]— por exemplo, a distribuição normal foi desenvolvida por Abraham de Moivre com uma curva de Gauss por uma aproximação numérica.[7] No século XVIII, outras ideias de distribuições de probabilidade emergiram[6] com a expectativa de uma variável aleatória discreta com Jean le Rond D'Alembert ou de probabilidades condicionais com Thomas Bayes. Algumas distribuições de probabilidade contínuas estão contidas em uma memória de Joseph—Louis Lagrange, de 1770.[6]

O uso rigoroso das distribuições de probabilidade começou a partir do século XIX nas ciências aplicadas como na biometria com Karl Pearson[8] ou na física estatística com Ludwing Boltzmann.[9]

A definição formal das medidas de probabilidade surgiu em 1896 com uma publicação de Émile Borel[10], continuando com outros matemáticos como Henri—Léon Lebesgue, Maurice René Fréchet, Paul Lévy e principalmente Andrei Kolmogorov que formulou os axiomas de probabilidade em 1933.

Definição matemática[editar | editar código-fonte]

Em teoria da probabilidade, uma distribuição de probabilidade é uma medida com massa total igual a 1(um). Essa medida satisfaz os três axiomas de probabilidade.

Definição[2] — Para um espaço mensurável (abre paréntesis. omega-maiúsculo vírgula A-maiúsculo. Fecha paréntesis) , (pê-maiúsculo) é uma distribuição de probabilidade, medida de probabilidade ou simplesmente probabilidade se:

  1. (pê-maiúsculo) é uma aplicação de (A-maiúsculo) em [0,1] (intervalo entre zero em um);
  2. ; (função probabilidade pê-maiúsculo de omega-maiúsculo. Igual a um )
  3. (pê-maiúsculo) é -aditiva(sigma-minúsculo-aditiva). Isto é, para qualquer família finita ou contável de elementos disjuntos (i-éssimo de A-maiúsculo. i pertence ao conjunto do irracionais) de A-maiúsculo (probabilidade pê-maiúsculo da reunião dos i pertencentes ao conjunto irracional de A-maiúsculo) Uma consequência imediata é: .(função probabilidade pê-maiúsculo do vazio igual a zero)

O triplet (omega-maiúsculo, A-maiúsculo, pê-maiúsculo) é chamado de espaço de probabilidade.[11] Usualmente a palavra distribuição é usada quando tratamos de uma distribuição de probabilidade de uma variável aleatória (xis-maiúsculo) definida em um espaço de probabilidade (omega-maiúsculo, A-maiúsculo, pê-maiúsculo).

Definição[12] — Seja uma variável aleatória real no espaço de probabilidade(omega-maiúsculo, A-maiúsculo, pê-maiúsculo). Isto é, uma função mensurável (função xis-maiúsculo como domínio omega-maiúsculo vírgula A-maiúsculo para o contradomínio dos conjuntos reais real érre-maiúsculo virgula B-maiúsculo do conjunto dos números reais érre-maiúsculo).. A distribuição de probabilidade da variável aleatória (xis-maiúsculo)é a medida de probabilidade (pê-maiúsculo sub-escrito xis-maiúsculo) definida sobre o espaço mensurável (conjunto dos números reais érre-maiúsculo virgula B-maiúsculo do conjunto dos números reais arre-maiúsculo) por (pê-maiúsculo sub-escrito xis-maiúsculo de b-maiúsculo. Igual a função probabilidade de xis-maiúsculo elevado a um negativo de b-maiúsculo. Igual a funcho de probabilidade pê-maiúsculo de xis-maiúsculo pertencente a b-maiúsculo) para qualquer álgebra de Borel real (B-maiúsculo pertencente a B-maiúsculo do conjunto dos números reais erre-maiúsculo). Em outras palavras, (pê-maiúsculo sub-escrito xis-maiúsculo) é a medida de imagem de (pê-maiúsculo) para (xis maiúsculo).

Então, para definir a distribuição de uma variável aleatória, transpõe-se a distribuição de probabilidade (pê-maiúsculo) de omega-maiúsculo em uma medida pê-maiúsculo sub-escrito xis-maiúsculo de érre-maiúsculo.

A representação de uma distribuição por uma variável aleatória não é única.[13] Em outras palavras, duas variáveis aleatórias diferentes ou duas variáveis aleatórias definidas em espaços diferentes podem ter a mesma distribuição. Duas variáveis aleatórias reais xis-maiúsculo e ipsilon-maiúsculo têm a mesma distribuição pê-maiúsculo sub-escrito xis-maiúsculo. Igual a pê-maiúsculo sub-escrito ipsilon-maiúsculo(em termos de igualdade de medidas). Isto é, pata todo . O seguinte teorema permite uma caracterização adicional.

Teorema de transferência[14] ou de transporte[15] — Seja uma variável aleatória real . função xis-maiúsculo de domínio omega-maiúsculo para contradomínio o conjunto dos números reais érre-maiúsculoLogo esperança ê-maiúsculo da função phi-minúsculo de xis-maiúsculo. Igual a integral sub-escrito omega-maiúsculo da função xis-maiúsculo em função de omega-minúsculo, vezes a função probabilidade pê-maiúsculo da diferencial de omega-minúsculo. Igual a integral sub-escrito do conjunto dos números reais erre-maiúsculo da função phi-minúsculo de xis-minúsculo, vezes probabilidade pê-maiúsculo sub-escrito xis-maiúsculo, vezes a diferencial de xis-minúsculo para toda função , função phi-minúsculo de domínio os conjunto dos números reais érre-maiúsculo para o contradomínio do conjunto dos números reais erre-maiúsculo de tal modo que pelo menos uma das duas integrais existe.[16] A última integral, de ponto de vista da teoria da medida, é uma integral da função phi-minúsculo em relação da medida pê-maiúsculo sub-escrito xis-maiúsculo. Essa integral tem forma de soma, no caso das distribuições discretas. Então, duas variáveis aleatórias reais xis-maiúsculo e ipsilon-maiúsculo têm a mesma distribuição se esperança ê-maiúsculo da função phi-minúsculo de xis-maiúsculo. Igual a esperança ê-maiúsculo da função phi-minúsculo de ipsilon-maiúsculo para qualquer função função phi-minúsculo de domínio o conjunto dos números reais érre-maiúsculo e contra-domínio o conjunto dos números reais érre-maiúsculo , tal que existe pelo menos um dos dois termos da igualdade.

Distribuição multidimensional[editar | editar código-fonte]

Distribuição normal bidimensional ou produto de duas distribuições normais unidimensionais.

Uma distribuição de probabilidade é chamada de multidimensional ou -dimensional[17] quando descreve vários valores (aleatórios) de um fenômeno aleatório, por exemplo, no lançamento de dois dados a distribuição de probabilidade dos dois resultados é uma distribuição bidimensional. Então, a característica multidimensional aparece por meio da transferência por uma variável aleatória de um espaço de probabilidade omega-maiúsculo vírgula a-maiúsculo para um espaço numérico ê-maiúsculo elevado a êne-minúsculo , de dimensão , por exemplo, no lançamento de dois dados a dimensão é = 2 êne igual a dois e o espaço ê-maiúsculo elevado a dois é abre chaves para o número um vírgula reticências vírgula seis. Vezes. o número um vírgula reticências vírgula seis. Fecha chaves . A distribuição multidimensional também é chamada de distribuição conjunta.[18]

Um exemplo importante da distribuição multidimensional é a probabilidade produto ,probabilidade pê-maiúsculo. Igual a probabilidade pê-um-maiúsculo multiplicação cartesiana por probabilidade pê-dois-maiúsculo em que probabilidade pê-um-maiúsculo e probabilidade pê-dois-maiúsculo são duas distribuições unidimensionais. Essa distribuição de probabilidade é uma distribuição de um par de variáveis aleatórias independentes.[19]Esse é o caso do exemplo do lançamento de dois dados.

Definição — Seja uma variável aleatória xis-maiúsculo no espaço de probabilidade omega-maiúsculo, A-maiúsculo, pê-maiúsculo, com valores em conjunto dos números reais elevado a êne-minúsculo equipada com produtos de algebras de Borel função b-maiúsculo do conjunto dos números reais érre-maiúsculo elevada ao produto cartesiano de êne-minúsculo . A distribuição da variável aleatóriaxis-maiúsculo é a medida de probabilidade pê-maiúsculo sub-escrito xis-maiúsculo definida para todo b-maiúsculo pertencente a função b-maiúsculo do conjunto dos números reais érre-maiúsculo elevada ao produto cartesiano de êne-minúsculo função probabilidade pê-maiúsculo sub-escrito xis-maiúsculo de b-maiúsculo. Igual a função probabilidade de xis-maiúsculo elevado ao número um negativo de b-maiúsculo. Igual a função de probabilidade pê-maiúsculo de xis-maiúsculo pertencente a b-maiúsculo)

A variável aleatória xis-maiúsculo é identificada[20] a um vetor aleatório de dimensões : xis-maiúsculo. igual a, abre parênteses, xis-um-maiúsculo vírgula xis-dois vírgula xis-dois-maiúsculo vírgula reticências vírgula xis-ene-maiúsculo. O teorema de Cramer-Wold[21] estabelece que a distribuição (-dimensional) do vetor aleatório é completamente determinado pelas distribuições (unidimensionais) de todas as combinações lineares dos componentes: somatória de i igual ao número um até o êne do primeiro termo a-sub-escrito i vezes xis-maiúsculo sub-escrito-i para todo a-um-minúsculo vírgula -a-dois-minúsculo vírgula reticências vírgula a-êne-minúsculo.

Distribuição absolutamente contínua[editar | editar código-fonte]

Ilustração de três esquemas em branco e preto, com uma nuvem de pontos em forma de triângulo à esquerda e duas curvas à direita. Elas representam duas coordenadas (dimensão 1 e dimensão 2) de dois pontos que se aproximam cada uma com uma distribuição normal. Isto é, uma simulação de distribuição bidimensional em que as duas distribuições marginais são normais.

Uma distribuição bidimensional ou -dimensional é chamada de absolutamente contínua[22] em conjunto-real-érre-maiúsculo elevado a dois quando a distribuição é absolutamente contínua com relação à medida de Lebesgue em conjunto-real-érre-maiúsculo elevado a dois. Isto é, se a distribuição da variável aleatória correspondente é descrita como para todo função probabilidade pê-maiúsculo de xis-maiúsculo pertencente a b-maiúsculo. Igual a integral dupla sub-escrito b-maiúsculo da função éfe-minúsculo sub-escrito xis-maiúsculo de xis-um-minúsculo vírgula xis-dois-minúsculo vezes a diferencial de xis-um-minúsculo vezes a diferencial de xis-dois-minúsculo

Distribuição marginal[editar | editar código-fonte]

Ver artigo principal: Distribuição marginal

Uma distribuição marginal de um vetor aleatório é a distribuição dos seus componentes. Para obter-la, projeta-se a distribuição em um espaço unidimensional de uma coordenada desejada. A distribuição de probabilidade da -ésima coordenada de um vetor aleatório é chamada de -ésima distribuição marginal .probabilidade pê-maiúsculo sub-escrito i [23] A distribuição marginal probabilidade pê-maiúsculo sub-escrito i de probabilidade pê-maiúsculo é obtida pela fórmula probabilidade pê-maiúsculo sub -escrito i de a-maiúsculo. Igual a probabilidade pê-maiúsculo sub-escrito xis-maiúsculo sub-escrito i de a-maiúsculo. Igual a integral dupla indefinida do número um sub-escrito pertencente a a-maiúsculo omega-minúsculo sub-escrito i vezes a probabilidade pê-aiúsculo da diferencial de omega-um-minúsculo vírgula reticências vírgula omega-êne-minúsculo para todo a-maiúsculo pertencente a b-maiúsculo do conjunto dos números reais.

As distribuições marginais de uma distribuição absolutamente contínua são expressas com suas densidades marginais.

Distribuição condicional[editar | editar código-fonte]

Ver artigo principal: Probabilidade condicionada
Ilustração de uma árvore binária de dois andares orientada da esquerda para a direita. Ela representa a aplicação de uma distribuição condicional, em que + significa que o indivíduo é positivo para o teste de drogas e U significa que o indivíduo é usuário de drogas é a probabilidade de o teste ser positivo para um indivíduo usuário de drogas.

Uma distribuição de probabilidade condicionada permite descrever o comportamento de um fenômeno aleatório quando a informação sobre o processo é conhecida. Em outras palavras, a probabilidade condicionada permite avaliar o grau de dependência estocástica entre dois eventos[24], por exemplo, no lançamento de dois dados a distribuição condicional pode dar a soma dos resultados sabendo que o resultado do lançamento de um dos dois dados foi pelo menos quatro.

Definição para eventos[editar | editar código-fonte]

A probabilidade condicionada é definida[25] em eventos pela probabilidade : a probabilidade de um evento A qualquer condicionado a um evento B. Para quaisquer A e B da σ-álgebra subjacente tal que probabilidade pê-maiúsculo de b-maiúsculo diferente de zero

função probabilidade pê-maiúsculo de a-maiúsculo-barra-b-maiúsculo. Igual a razão da probabilidade pê-maiúsculo da intersecção entre a-maiúsculo e b-maiúsculo por probabilidade pê-maiúsculo de b-maiúsculo

Em probabilidade e em estatística, a distribuição de probabilidade[26] probabilida-pê-maiúsculo, abre parênteses ponto-barra-b-maiúsculo comumente usada em distribuição da probabilidade total ou no teorema de Bayes.

Definição para variáveis aleatórias[editar | editar código-fonte]

A probabilidade condicionada também é definida para as variáveis aleatórias. Seja uma variável X xis-maiúsculo condicionada a uma variável Y ipsilon-maiúsculo. Quando probabilidade pê-maiúsculo abre parênteses de ipsilon-maiúsculo igual a ipsilon-minúsculo fecha parênteses diferente de zero, a distribuição de X xis maiúsculo dado Y = y ipsilon-maiúsculo igual a ipsilon-minúsculo é definida por[26]

função probabilidade pê-maiíusculo de, abre parênteses, xis-maiúsculo pertencente a-maiúsculo-barra- ipsilon-maiúsculo igual a ipsilon-minúsculo, fecha parênteses. Igual a razão da função probabilidade de, abre parênteses, xis-maiúsculo pertencente a a-maiúsculo vírgula ipsilon-maiúsculo igual a ipsilon-minúsculo, fecha parênteses, por função probabilidade pê-maiúsculo de ipsilon-maiúsculo igual a ipsilon-minúsculo.

A definição acima não é válida se a distribuição de Y ipsilon-maiúsculo' for absolutamente contínua dado que função probabilidade pê-maiúsculo de, abre parenteses, ipsilon-maiúsculo igual a ipsilon-minúsculo'''' para todo y ipsilon-minúsculo . A definição seguinte é válida para quaisquer das duas variáveis aleatórias.

Definição[27] Seja abre parenteses, xis-maiúsculo vírgula ipsilon-maiúsculo, fecha parenteses' um par de variáveis aleatórias reais. Há uma distribuição de probabilidade probabilidade pê-maiúsculo sub-escrito xis-maiúsculo-barra-ipsilon-maiúsculo'''' , chamada de distribuição condicional de xis-maiúsculodado ipsilon-maiúsculoou dado ipsilon-maiúsculo igual a ipsilon-minúsculo definida pela e para qualquer função limitada boreliana : função phi-minúsculo tal que a esperança ê-maiúsculo da função phi-minúsculo de xis-maiúsculo-barra-ipsilon-maiúsculo. Igual, a integral da função' phi-minúsculo de xis-maiúsculo, vezes a probabilidade pê-maiúsculo sub-escrito xis-maiúsculo-barra-ipsilon-maiúsculo, diferencial de xis-minúsculo' quase certamente.

A distribuição também é denotada como ou função éle-maiúsculo de xis-maiúsculo-barra-ipsilon-maiúsculo ou função ale-maiúsculo de xis-maiúsculo-barra-ipsilon-maiúsculo-igual-ipsilon-minúsculo A igualdade anterior é uma igualdade entre variáveis aleatórias.[28]

Definição para σ-álgebra (sigma-álgebra)[editar | editar código-fonte]

De maneira mais geral, a distribuição de probabilidade é definida a partir da esperança condicional de uma variável aleatória X xis-maiúsculo dada uma σ-álgebra sigma-álgebra gê-maiúsculo. Essa esperança condicional é a única variável aleatória -mensurável gê-maiúsculo-mesurável denotada como esperança ê-maiúsculo de xis-maiúsculo-barra-gê-maiúsculo, satisfazendo esperança ê-maiúsculo de zê-maiúsculo vezes a esperança ê-maiúsculo de xis-maiúsculo-barra-gê-maiúsculo. igual a esperança ê-maiúsculo de zê-maiúsculo vezes xis-maiúsculo para todo Z zê-maiúsculo, variável -mensurável gê-maiúsculo-mensurável. Então, a distribuição condicional é definida por[29] função probabilidade pê de a-maiúsculo-barra-gê-maiúsculo. igual a esperança ê-maiúsculo do número um sub-escrito a-maiúsculo, barra gê-maiúsculo , em que número um sub-escrito a-maiúsculo é a função indicadora.

Definição para distribuições absolutamente contínuas[editar | editar código-fonte]

No caso das distribuições absolutamente contínuas, existe uma função densidade condicional de uma distribuição em relação a outra e vice-versa. Se é a densidade da distribuição bidimensional, as duas densidades condicionais são dadas por[30]

e . função éfe-minúsculo de xis-minúsculo-barra-ipsilon-minúsculo. Igual a razão da função éfe-minúsculo de xis-minúsculo e ipsilon-minúsculo por função f-minúsculo sub-escrito ipsilon-'maiúsculo de ipsilon-minúsculo. Igual a razão da da função éfe-minúsculo xis-minúsculo e ipsilon-minúsculo por integral da função éfe-minúsculo xis-minúsculo e ipsilon-minúsculo diferencial xis-minúsculo e função éfe-minúsculo de ipsilon-minúsculo-barra-xis-minúsculo igual a razão da função éfe-minúsculo de xis-minúsculo e ipsilon-minúsculo por éfe-minúsculo sub-escrito xis-maiúsculo de xis-minúsculo. igual a função éfe-minúsculo de xis-minúsculo e ipsilon-minúsculo por integral da função éfe-minúsculo xis-minúsculo e ipsilon-minúsculo diferencial ipsilon-minúsculo'

éfe-minúsculo sub-escrito xis-maiúsculo e éfe-minúsculo sub-escrito ipsilon-maiúsculosão as duas distribuições marginais de X xis-maiúsculo e Y ipsilon-maiúsculo , respectivamente. Em substituição das integrais pelas somas, obtém-se fórmulas semelhantes quando as distribuições marginais são discretas ou quando a distribuição marginal de X xis-maiúsculo é discreta e de Y ipsilon-maiúsculoé absolutamente contínua ou vice-versa.[31]

Distribuição com valores em um espaço de Banach[editar | editar código-fonte]

Porque é um espaço de Banach, as distribuições dos valores em um espaço de Banach são generalizações das distribuições dos valores reais. A definição é semelhante.[32]

Définition — Sejauma variável aleatória em um espaço de probabilidade omega-maiúsculo, A-maiúsculo, pê-maiúsculo com valores em um espaço de Banach ê-maiúsculo com σ-álgebra sigma-algebrico b-maiúsculo gerada pelos conjuntos abertos de ê-maiúsculo. A distribuição de probabilidade da variável aleatóriaxis-maiúsculo e a medida de probabilidade probabilidade pê-maiúsculo sub-escrito xis-maiúsculo definida pelo espaço mensurável abre parenteses, ê-maiúsculo vírgula b-maiúsculo, fecha parenteses por probabilidade pê-maiúsculo sub-escrito xis-maiúsculo de b-maiúsculo. Igual a função probabilidade pê-maiúsculo de xis-maiúsculo eivado ao número um negativo de b-maiúsculo. igual a probabilidade pê-maiúsculo de xis-maiúsculo pertencente a b-maiúsculo para todo b-maiúsculo pertencente e b-maiúsculo de borel.

Para obter boas propriedades, é comum considerar as medidas de probabilidade tight. Isto é, Intuitivamente, são as medidas concentradas em seu espaço compacto e com a suposição que o espaço de Banach é separável.[33]

Um possível exemplo do espaço de Banach é o espaço das funções contínuas c em função do conjunto dos números reais positivos erre-maiúsculo-mais e o conjunto dos números reais érre-maiúsculo . Um processo estocástico de uma família de variáveis aleatórias xis-maiúsculo sub-escrito tê-minúsculo para os t-minúsculos pertencentes a tê-maiúsculo indexadas por conjunto de índices T tê-maiúsculo. Uma definição possível da distribuição de probabilidade de tal processo é chamada de distribuição finita-dimensional.[34] Isto é, a distribuição multidimensional dos vetores xis-maiúsculo-tê-um vírgula xis-maiúsculo-tê-dois vírgula reticências xis-maiúsculo-tê-ene quando tê-um, tê-dois, sucessivamente a tê-êne pertencentes a tê-maiúsculo . Então, a distribuição pode ser estendida pelo teorema da extensão de Carathéodory para todo o processo. Um exemplo é movimento browniano b-maiúsculo sub-escrito tê-minúsculo para os tê-minúsculos pertencentes ao conjunto dos números reais positivos (trajetórias contínuas), cuja distribuição de probabilidade é a medida de Weiner[35] geralmente denotada por função w-maiúsculo de a-maiúsculo. Igual a função probabilidade de b-maiúsculo pertencente a a-maiúsculo sub-escrito tê-minúsculo para os tê-minúsculos maios ou igual ao número zero para todo subconjunto A a-maiúsculo de . c em função do conjunto dos números reais positivos erre-maiúsculo-mais e o conjunto dos números reais érre-maiúsculo

Espaço de distribuições de probabilidade[editar | editar código-fonte]

Uma distribuição de probabilidade é uma medida de massa total unitária. O conjunto de distribuições de probabilidade é um sub-espaço do espaço de medidas finitas. Esse espaço é muitas vezes denominado[36] pê-maiúsculo ou m-maiúsculo-um em função do conjunto dos números reais pelas distribuições de probabilidade reais. No restante da seção, as propriedades desse espaço são detalhadas para as distribuições de probabilidade em reais. Embora também possam ser detalhadas para distribuições em espaços de Banach.

É possível fornecer esse espaço com uma topologia chamada topologia fraca.[36] Essa topologia define uma convergência fraca das distribuições de probabilidade: uma sequência de distribuições de probabilidade probabilidade pê-maiúsculo-êne quando êne-minúsculo pertence so conjunto dos naturais converge fracamente para uma distribuição de probabilidade pê-maiúsculo se limite quando une-minúsculo tende ao infinito da integral da função phi-minúsculo vezes a função probabilidade pê-maiúsculo-êne da diferencial de omega-minúsculo. Igual a integral da função phi-minúsculo de omega-miúsculo vezes a função probabilidade pê-maiúsculo da diferencial de omega-minúsculo para toda função contínua phi-minúsculo de um conjunto limitado.

A convergência é denominada .probabilidade pê-maiúsculo-êne tende infinitamente a probabilidade pê-maiúsculo [36] Essa convergência é refletida pelo teorema de transferências de variáveis aleatórias xis-maiúsculo-êne quando êne-minúsculo pertence so conjunto dos naturais das respectivas distribuições probabilidade pê-maiúsculo-êne quando êne-minúsculo pertence so conjunto dos naturais. Então, a convergência de variáveis aleatórias é chamada convergência em distribuição (ou fraca) é denotada xis-maiúsculo-êne tende em distribuição ele-maiúsculo para xis-maiúsculo ou xis-maiúsculo-êne tende em probabilidade ele-maiúsculo para xis-maiúsculo O termo convergência fraca das variáveis aleatórias é mais frequentemente utilizada.

O espaço de distribuições de probabilidade com topologia fraca é[37] um espaço métrico, completo e separável (no caso de um espaço de Banach também separável), tornando-se um espaço polonês.

Propriedades[editar | editar código-fonte]

Parâmetros e famílias[editar | editar código-fonte]

Certas distribuições são agrupadas por família em relação a certas propriedades da sua densidade ou da sua função massa de acordo com o número de parâmetros que as definem, chamados de família paramétrica de distribuição de probabilidade.

Ilustração de diferentes curvas de Gauss assimétricas. Ela representa diferentes parâmetros de forma (assimetria) para densidade de probabilidade da distribuição normal assimétrica.

Parâmetros[editar | editar código-fonte]

Os chamados parâmetros de posição[38] influenciam a tendência central da distribuição de probabilidade. Isto é, o valor ou valores em torno dos quais a lei leva seus maiores valores. A esperança, a mediana, a moda, quantils e decils são os exemplos.

Différentes courbes de Gauss
Ilustração de diferentes curvas de Gauss. Ela representa diferentes parâmetros de posição () e parâmetros de escala () para densidade de probabilidade da distribuição normal.

Os chamados parâmetros de escalonamento[38] influenciam a dispersão ou o achatamento da distribuição de probabilidade como a variância (momento de segunda ordem), o desvio padrão ou a intervalo interquartil.

Os chamados parâmetros de forma[38] são outros parâmetros relacionados a distribuição de probabilidade. A cauda de uma distribuição de probabilidade real faz parte de sua forma. As caudas da esquerda e da direita são[39] dos tipos e , menos infinito até xis-minúsculo e de ipsilon-minúsculo até mais infinito respectivamente. Uma distribuição de probabilidade é chamada de cauda pesada se a medida de probabilidade da cauda probabilidade pê-maiúsculo de ipsilon-minúsculo até mais infinito tende mais lentamente a 0, quando y vai para infinito, de que que da distribuição normal.[40] Especialmente para qualquer distribuição absolutamente contínua e centrada, essa definição pode ser representada em termos de densidade[41]:

limite quando o módulo de xis-minúsculo tende para mais-infinito da função de xis-minúsculo vezes exponencial de meio-xis-elevado a dois

é uma distribuição com caudas direita e esquerda pesadas.

A assimetria (momento de terceira ordem[42]) é um exemplo de parâmetro de forma, que permite tornar a cauda da direita mais ou menos pesada.[43] A curtose (momento de quarta ordem[42]) é usada para apoiar ou opor-se aos valores próximos da média daqueles que estão mais distantes. Uma distribuição de probabilidade é chamada de mesocúrtica, leptocúrtica ou platicúrtica se a curtose é 0, positiva ou negativa.

Famílias[editar | editar código-fonte]

Uma distribuição é chamada de família exponencial a um parâmetro[44] se sua densidade de probabilidade ou sua função massa depende de apenas uma parâmetro da seguinte forma:

função éfe-minúsculo de ipsilon-minúsculo. Igual, quando ipsilon-minúsculo está entre alfa-minúsculo e beta-minúsculo a função a-minúsculo de teta-minúsculo vezes b-minúsculo de ipsilon-minúsculo vezes ê-minúsculo elevado a menos função cê-minúsculo de teta-minúsculo vezes função dê-minúsculo de ipsilon-minúsculo. ou igual, quando êne-minúsculo é igual a zero, a número zero

Essa família inclui muitas distribuições clássicas como distribuição normal, distribuição exponencial, distribuição Gamma, distribuição qui-quadrado, distribuição beta, distribuição de Bernoulli, distribuição de Poisson, entre outras.

Uma distribuição é chamada de família potência a dois parâmetros[44] e se a densidade:

função éfe-minúsculo de ipsilon-minúsculo. Igual, quando ipsilon-minúsculo é maior ou igual ao número zero e menor do teta-minúsculo. Ou igual, quando êne-minúsculo for zero, a zero

Distribuição direcional[editar | editar código-fonte]

Quando uma distribuição de probabilidade multidimensional representa a direção aleatória de um fenômeno, ela é chamada de direcional. É uma distribuição de um vetor aleatório unitário de dimensão d, em que , ou, de maneira equivalente, é uma distribuição de probabilidade na esfera de dimensão d. Uma distribuição direcional de dimensão d pode ser representada por um vetor (d-1-dimensional) em coordenadas polares como as distribuições de von Mises e de Bingham.[45]

Momentos[editar | editar código-fonte]

Ver artigo principal: Momento (estatística)

Se existir, o n-ésimo momento de uma distribuição de probabilidade pê-maiúsculo é definido como . emê-minúsculo sub-escrito êne-minúsculo. Igual a integral sub-escrito omega-maiúsculo de omega-minúsculo eivado a une-minúsculo vezes a probabilidade pê-maiúsculo da diferencial de omega-minúsculo Essa fórmula é descrita[46] simplesmente como ame-minúsculo sub-escrito êne-minúsculo. Igual a esperança ê-maiúsculo de xis-maiúsculo elevado a êne-minúsculo caso a distribuição seja definida a partir de uma variável aleatória xis-maiúsculo.

O primeiro momento ou momento de ordem 1 também é chamado de esperança da distribuição. Quando o momento é igual a 0, a distribuição é chamada centrada. O segundo momento ou momento de ordem 2 também é chamado de variância da distribuição. Quando o momento é igual a 1, é dito que a distribuição é reduzida.

De uma maneira geral, a coleção de todos os momentos o ême-minuúsculo sub-escrito êne-minúsculo quando une-minúsculo pertence aos naturais de uma distribuição de probabilidade não é suficiente para caracterizar essa distribuição.[47] Certas distribuições são definidas por um número finito do seu momento: a distribuição de Poisson é completamente definida por sua esperança[48], a distribuição normal é completamente definida por seus dois primeiros momentos.[49] Certas distribuições não possuem momento como a distribuição de Cauchy.

Entropia[editar | editar código-fonte]

As distribuições de probabilidade permitem representar fenômenos aleatórios. A entropia de Shannon de uma distribuição de probabilidade foi introduzida em termodinâmica para quantificar a desordem molecular de um sistema.[50] O objetivo é medir a falta da informação em lei de probabilidade.[51] A entropia foi definida pela primeira vez para as distribuições discretas, tendo sido estendida para as distribuições absolutamente contínuas. Para uma distribuição discreta probabilidade pê-um-maiúsculo. Igual somatória, com i-minúsculo menos ou igual a êne-minúsculo de pê-minúsculo sub-escrito i-minúsculo vezes delta minúsculo sub-escrito xis-minúsculo sub-escrito i-minúsculo e uma distribuição probabilidade pê-dois-maiúsculo de densidade éfe-minúsculo, a entropia H h-maiúsculo é definida respectivamente como[50][52]

e . função h-maiúsculo da probabilidade pê-um-maiúsculo. Igual a menos a somatória, com inicio em i-minúsculo até êne, de pê-minúsculo sub-escrito i-minúsculo vezes o logaritmo de base dois de pê-minúsculo sub-escrito i-minúsculo e função h-maiúsculo da probabilidade pê-dois-maiúsculo. Igual a menos integral sub-escrito co conjunto dos números reais de função éfe-minúsculo de xis-minúsculo vezes logaritmo natural de função éfe-minúsculo de xis-minúsculo vezes diferencial de xis-minúsculo

  • A distribuição normal é a entropia máxima para todas as distribuições possíveis que possuem a mesma média e o mesmo desvio padrão.[9]
  • A distribuição geométrica é a entropia máxima para todas as distribuições discretas que possuem a mesma média.[9]
  • A distribuição uniforme contínua é a entropia máxima para as distribuições com suporte limitado.
  • A distribuição exponencial é a entropia máxima para todas as distribuições em que possuem a mesma média.[9] 
  • As distribuições lei de potência como a lei de Zipf são a entropia máxima entre aqueles que tem o mesma média de logaritmo.

O estado de entropia máxima é o estado mais desordenado, mais estável e mais provável de um sistema.[51] Essas leis são os menos evitável de todas as leis compatíveis com as observações ou condições, e, portanto, a única forma objectiva qualifica-las como distribuições de probabilidade a priori. Essa propriedade tem um papel importante na inferência bayeseana.

Classificação das distribuições de probabilidade na reta real[editar | editar código-fonte]

Representação de três funções de distribuição de distribuições de probabilidade:
  • em vermelho: distribuição absolutamente contínua (normal padrão);
  • em azul: distribuição discreta (distribuição de Poisson de parâmetro 2);
  • em preto: distribuição mista (combinação linear de uma medida de Dirac -2, uma medida de Dirac -1 e uma distribuição de Cauchy de parâmetros -2 e 1.

Distribuições de probabilidade em aplicações mais comuns são distribuições discretas e distribuições absolutamente contínuas. Entretanto, existem distribuições de probabilidade que não são nem discretas nem absolutamente contínuas.

Distribuições discretas[editar | editar código-fonte]

Definição[editar | editar código-fonte]

Ilustração de linha abscissa preta com três pontos discretos. O suporte da distribuição discreta é composto por {1}, {3} e {7} com probabilidades associadas 0,2, 0,5 e 0,3, respectivamente.

Uma distribuição de probabilidade probabilidade pê-maiúsculo é concentrada[48] ou é realizada em um conjunto a-maiúsculo pertence ao conjunto a-maiúsculo quando probabilidade pê-maiúsculo de a-maiúsculo é igual ao número um. Uma distribuição de probabilidade probabilidade pê-maiúsculo é chamada de discreta[11][12] se um conjunto a-maiúsculo é um conjunto finito ou contável.

O elemento omega-minúsculo pertence a omega-maiúsculo é chamado de átomo de uma distribuição de probabilidade probabilidade pê-maiúsculo quando os elementos de omega-minúsculo pertencem a a-maiúsculo e . probabilidade pê-maiúsculo dos elementos de omega O conjunto de átomos de uma distribuição discreta é finito ou contável. De modo geral, essa propriedade é válida para toda medida -finita. Para uma distribuição de probabilidade real, o conjunto de átomos é exatamente o conjunto de pontos de descontinuidade de sua função de distribuição[53]. Neste caso, a finitude do conjunto de átomos é dada a partir do fato que a função de distribuição é limitada.[54]

Um critério suficiente para uma distribuição de probabilidade ser discreta é que omega-maiúsculo seja finito ou contável.

Se é discreto, então ele se concentra em particular no conjunto (finito ou contável) dos seus átomos omega-maiúsculo sub-escrito a-minúsculo. Para definir probabilidade pê-maiúsculo é preciso definir o conjunto dos pares:[48] abre chaves. Pares omega-minúsculo e função pê-minúsculo pertencentes a omega-maiúsculo sub-escrito a-minúsculo vezes o intervalo do número zero ao número um, aberto no número zero e fechado no número um, em que pê-minúsculo é a função de massa de probabilidade pê-maiúsculo. Então, obtém-se

, probabilidade pê-maiúsculo. Igual a somatória com omega-minúsculo pertencente a omega-maiúsculo de sub-escrito a-minúsculo da função pê-minúsculo de omega-miúsculo vezes delta minúsculo sub-escrito omega-minúsculo

em que é a medida de Dirac[13][22] no ponto omega-minúsculo pertence a omega-maiúsculo sub-escrito a-minúsculo.

No caso em que a distribuição de probabilidade é definida a partir de uma variável aleatória, os conceitos anteriores são usados para a variável aleatória: uma variável aleatória xis-maiúsculo, concentrada em conjunto bê-maiúsculo pertencente a função bê-maiúsculo-borel do conjunto dos números reais, é discreta, se a distribuição probabilidade pê-maiúsculo sub-escrito xis-maiúsculo concentrada em bê-maiúsculo, é discreta. Os mesmo átomos de xis-maiúscula são os átomos de . probabilidade pê-maiúsculo sub-escrito xis-maiúsculo

Para uma variável aleatória discreta , o teorema de transferência é expresso na forma de somas ou de séries[55]

esperança ê-maiúsculo da função phi-minúsculo de xis-maiúsculo. Igual a somatória com xis-maiúsculo pertencente a omega-maiúsculo da função phi-minúsculo de xis-minúsculo vezes pê-minúsculo sub-escrito xis-maiúsculo de xis-minúsculo. , para toda função , função phi-minúsculo com domínio o conjunto dos números reais e contra-domínio conjunto dos números reais.
, para todo . função de probabilidade pê de xis-maiúsculo pertencente a a-maiúsculo. Igual a somatória com k-minúsculo pertencente a a-maiúsculo da função de probabilidade pê-maiúsculo de xis-maiúsculo igual a k-minúsculo.

Geralmente a função de distribuição de uma distribuição discreta é constante seccionalmente.[48] Uma distribuição discreta pode ser representada por um gráfico de barras.[11]

Exemplos[editar | editar código-fonte]

Segue uma lista de distribuições de probabilidade discretas com suportes finitos ou contáveis.

Medida de Dirac

A medida de Dirac é o exemplo mais simples das distribuições discretas au sens où seu support possui apenas um valor.[56] Se uma variável aleatória é a medida de Dirac delta-minúsculo sub-escrito a-minúsculo, então xis-maiúsculo é igual a a-minúsculo com probabilidade igual a 1. Essa lei modela um fenômeno determinista (não aleatório) pois o resultado da experiência é quase certamente igual ao valor conhecido a-minúsculo.

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
função éfe-maiúsculo de xis-minúsculo. Igual a, se xis-minúsculo for menor do que a-minúsculo, ao número zero. Se xis-minúsculo for maior ou igual a a-minúsculo, ao número um. esperança ê-maiúsculo de xis-maiúsculo. Igual a a-minúsculo variância de xis-maiúsculo igual ao número zero. delta-minúsculo vezes, abre parenteses, vetor-final-xis-minúsculo menos vetor-inicial-xis-minúsculo. Igual a delta-minúsculo vezes xis-final-um-minúsculo menos xis-inicial-um-minúsculo. Vezes, delta-minúsculo vezes xis-final-dois-minúsculo menos xis-inicial-dois-minúsculo. Sucessivamente até delta-minúsculo vezes xis-final-êne-minúsculo menos xis-inicial-ene-minúsculo.

http://www.ifi.unicamp.br/~lenz/Econofisica/Teoria%20da%20Probabilidade%20II%20-%20analise%20multivariada%202.docx.

Distribuição uniforme discreta

A distribuição uniforme discreta modela um fenômeno aleatório cujos resultados são igualmente prováveis. É o caso do lançamento de um dado. Se o suporte s-maiúsculo' da distribuição é um conjunto de n-minúsculo elementos abre chaves xis-um-minúsculo, xis-dois-minúsculo, sucessivamente até xis-êne-minúsculo, a distribuição é definida como função de probabilidade pê-maiúsculo xis-maiúsculo igual a xis-um-minuscúlo. Igual a função de probabilidade pê-maiúsculo de xis-maiúsculo igual a xis-dois-minúsculo. Igual, sucessivamente até igual a função de probabilidade pê-maiúsculo de xis-maiúsculo igual a xis-ene-minúsculo. Igual a fração do número um por une-minúsculo'''''''

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
função éfe-maiúsculo de xis-minúsculo. Igual a somatória, com xis-minúsculo sub-escrito i-minúsculo menor ou igual a xis-minúsculo da razão número um por k-minúsculo. Igual a função une-minúsculo de xis-minúsculo por k-minúsculo esperança ê-maiúsculo de xis-minúsculo. Igual a razão do número um por k-minúsculo vezes a somatória de i-minúsculo igual ao número um até k-minúsculo de xis-minúsculo sub-escrito i-minúsculo variância de xis-minúsculo. Igual a razão do numero um sobre k-minúsculo vezes a, abre chaves, somatória de xis-minúsculo elevado ao número dois sub-escrito i-minúsculo menos razão da somatória de xis-minúsculo sub-escrito i-minúsculo elevado ao número dois por k-minúsculo função éfe-minúsculo sub-escrito xis-maiúsculo de xis-minúsculo sub-escrito i-minúsculo. Igual a função probabilidade pê-maiúsculo de xis-maiúsculo igual a xis-minúsculo sub-escrito i-minúsculo. igual a razão do número um por êne-minúsculo para qualquer i-minúsculo igual aos números um, dois , sucessivamente até êne.
  http://www.professores.uff.br/anafarias/images/stories/meusarquivos/vadisc.pdf pg. 31
Distribuição de Bernoulli

A distribuição de Bernoulli corresponde a uma experiência com dois resultados (sucesso ou fracasso), que geralmente correspondem aos valores 1 e 0. Essa distribuição depende de um parâmetro para medir a probabilidade de sucesso, sendo definido por função de probabilidade pê-maiúsculo de xis-maiúsculo igual ao número um. Igual ao número um menos função probabilidade pê-maiúsculo de xis-maiúsculo igual ao número zero.

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
função pê-maiúsculo de k-minúsculo. Igual, quando k-minúsculo igual a zero, q-minúsculo igual ao número um menos p-minúsculo, ou, quando k-minúsculo igual ao número um, pê-minúsculo esperança ê-maiúsculo de xis-maiúsculo igual a pê-minúsculo. variância de xis-maiúsculo. igual a pê-minúsculo vezes o número um menos pê-minúsculo. Ber(p) '(soletrar os caracteres/letras)'
Distribuição binomial

É a distribuição do número de sucessos obtidos depois de êne-minúsculo ensaios de Bernoulli independentes de parâmetros pê-minúsculo pertencentes ao intervalo do número zero ao número um, fechado em ambos os números, ou seja, é a distribuição da soma de êne-minúsculo variáveis aleatórias independentes da distribuição de Bernoulli de mesmo parâmetro. Essa distribuição com suporte finito é definida por probabilidade pê-maiúsculo de xis-maiúsculo igual a k-minúsculo. Igual ene-minúsculos tomados k-minúsculo a k-minúsculo vezes pê-minúsculo elevado a k-minúsculo vezes, abre parênteses, o número um menos pê-minúsculo, fecha parênteses, elevado a ene-minúsculo menos k-minúsculo para todo . k-minúsculo pertencente aos números zero, um, sucessivamente a êne-minúsculo

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
função pê-maiúsculo de k-minúsculo. Igual a êne-minúsculos tomados k-minúsculo a k-minúsculo vezes pê-minúsculo elevado a k-minúsculo vezes q-minúsculo elevado a ene-minúsculo menos k-minúsculo esperança ê-maiúsculo de xis-maiúsculo. Igual a êne-minúsculo vezes pê-minúsculo variância de xis-maiúsculo igual a êne vezes pê-minúsculo vezes, abre parênteses, o número um menos pê-minúsculo. Bin(p,n) (soletrar os caracteres/letras)

Distribuição aritmética

É uma distribuição que concentra-se em um conjunto do tipo k-minúsculo vezes d-minúsculo, quando k-minúsculo pertence ao conjunto dos números inteiros, em que dê-maior do que o número zero.

Distribuição geométrica

É a distribuição que modela o tempo de espera do primeiro sucesso de uma de ensaios de Bernoulli independentes com probabilidade de sucesso pê-minúsculo pertencente ao intervalos do número zero aos número um, ambos fechados. É a única distribuição discreta que possui a propriedade de falta de memória. Essa probabilidade com suporte infinito contável é definida por . função de probabilidade pê-maiúsculo de xis-maiúsculo igual a k-minúsculo. Igual, abre parênteses, o número um menos pê-minúsculo, fecha parênteses. Elevado a k-minúsculo menos o número um para todo k-minúsculo pertencente ao conjunto dos números naturais, exceto o zero.

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
função pê-maiúsculo de k-minúsculo. o. Igual, abre parênteses, o número um menos pê-minúsculo, fecha parênteses. Elevado a k-minúsculo menos o número um esperança ê-maiúsculo de xis-maiúsculo. Igual a fração do número um por pê-minúsculo variância de xis-maiúsculo igual a razão do número um menos pê-minúsculo por pê-minúsculo eivado a dois. (soletrar os caracteres/letras)[57]195-197

Distribuição de Poisson

A distribuição de Poisson descreve o comportamento do número de eventos que ocorrem em um espaço determinado de tempo. Essa distribuição com suporte infinito contável depende de um parâmetro lambda-minúsculo maior do que o número zero e é definida por função de probabilidade pê-maiúsculo xis-maiúsculo igual a k-minúsculo. Igual a razão de lambda-minúsculo eivado a k-minúsculo por k-minúsculo-fatorial vezes ê-minúsculo elevado a lambda-minúsculo negativo para todo k minúsculo pertencente ao conjunto dos números naturais.

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
[57]183 função éfe-minúsculo de k-minúsculo e lambda-minúsculo. Igual a razão de ê-minúsculo elevado a lambda-minúsculo-negativo vezes lambda-minúsculo elevado a k-minúsculo por k-minúsculo fatorial esperança ê-maiúsculo de xis-maiúsculo igual a lambda-minúsculo variância de xis-maiúsculo igual a lambda-minúsculo Poisson()(soletrar os caracteres/letras)

Distribuição hipergeométrica

A distribuição hipergeométrica modela uma retirada simultânea de êne-minúsculo bolas uma urna contendo uma proporção pê-minúsculo vezes êne-maiúsculo de bolas vencedoras e uma proporção Abre parênteses, o número um menos pê-minúsculo, fecha parênteses. Vezes êne-miúsculo de bolas perdedoras para um número total êne-maiúsculo de bolas. A distribuição descreve o número de bolas vencedoras extraídas. Essa distribuição com suporte finito depende de três parâmetros êne-minúsculo pertencente ao conjunto dos números naturais, exceto o número zero, pê-minúsculo pertencente ao intervalo do número zero ao número um, ambos fechados e êne-maiúsculo pertencente ao conjunto dos números naturais, exceto o número zero, e é definida por

função de probabilidade pê-maiúsculo de xis-maiúsculo igual a k-minúsculo. Igual a razão de de pê-minúsculo vezes ene-maiúsculo tomados k-minúsculo a k-minúsculo, vezes entre parênteses o número um menos pê-minúsculo vezes ene-maiúsculo tomados êne-minúsculo menos k-minúsculo a êne-minúsculo menos k-minúsculo por ene-maiúsculo êne-minúsculo a êne-minúsculo para todo k-minúsculo pertencente ao conjunto dos números zeros, um, sucessivamente até êne-minúsculo.

Em geral fixamos a proporção, por exemplo . ême-minúsculo igual pê-minúsculo vezes êne-maiúsculo.

Função de distribuição de probabilidade

da variável aleatória X

Esperança

(1º momento)

Variância

(2º momento)

Notação
[57]200 função de probabilidade pê-maiúsculo de xis-maiúsculo igual a i-minúsculo. Igual a razão de de ême-minúsculo tomados i-minúsculo a i-minúsculo, vezes ene-maiúsculo menos ême-minúsculo tomados êne-minúsculo menos i-minúsculo a êne-minúsculo menos i-minúsculo por ene-maiúsculo êne-minúsculo a êne-minúsculo [57]203 esperança ê-maiúsculo de xis-maiúsculo igual a razão de êne-minúsculo vezes êm-minúsculo por ene-maiúsculo. [57]204 variância de xis-maiúsculo é igual a aproximadamente une-minúsculo vezes pê-minúsculo vezes, abre parênteses, o número um menos pê-minúsculo. (soletrar os caracteres/letras)

Distribuição absolutamente contínua[editar | editar código-fonte]

Definição[editar | editar código-fonte]

Uma distribuição de probabilidade real é chamada de absolutamente contínua[58] ou densidade[22] quando ela é absolutamente contínua em relação a medida de Lebesgue. Se é absolutamente contínua, então, de acordo com teorema de Radon-Nikodym[59], ela possui uma densidade de probabilidade em relação a medida de Lebesgue. Isto é, existe[22] uma única (em relação a medida zero de Lebesgue) função mensurável positiva de tal modo que para qualquer : , em que é a função característica de Borel . Essa densidade de probabilidade nem sempre tem a expressão analítica (ver os exemplos abaixo).

A curva vermelha é a densidade de probabilidade da distribuição normal padrão, chamada de curva de Gauss ou sino.

Quando uma distribuição de probabilidade absolutamente contínua é definida a partir de uma variável aleatória , a variável aleatória é chamada absolutamente contínua[13] ou densidade e a densidade da distribuição é igualmente chamada densidade de , às vezes denotada .

Para uma variável aleatória absolutamente contínua , o teorema da transferência é escrita[60] por meio de uma integral de Lebesgue[58] para toda função integral em relação a medida :

A função de distribuição de uma distribuição absolutamente contínua é localmente absolutamente contínua, uma propriedade necessária e suficiente. Uma distribuição absolutamente contínua não possua átomos.[61] Entretanto, essa propriedade que opõe-se as distribuições absolutamente contínuas às distribuições discretas não é característica das distribuições absolutamente contínuas mas as leis contínuas (ver a seção distribuições singulares abaixo).

As distribuições absolutamente contínuas também são chamadas de distribuições contínuas.[62] Este é um equívoco, porque na maioria das aplicações Estatística as distribuições contínuas são absolutamente contínuas[63], mas isso não é verdadeiro no caso geral.

Exemplos[editar | editar código-fonte]

Distribuição uniforme

Intuitivamente uma distribuição uniforme sobre um intervalo indica que todos os valores do intervalo tem a mesma chance de aparecer. Mais formalmente cada subintervalo tem uma probabilidade igual a medida de Lebesgue de (multiplicado por uma constante). A distribuição uniforme depende apenas do intervalo, o seu suporte é compacto e a sua densidade é dada pela:

para .
se não.
Distribuição de probabilidade

da variável aleatória X (densidade)

Esperança

(1º momento)

Variância

(2º momento)

Notação
[64]
Distribuição exponencial

A distribuição exponencial é comumente usada para modelar o tempo de vida de um fenômeno pois é a única distribuição absolutamente contínua com propriedade de falta de memória. Ela pode ser considerada como um análogo continuo de distribuição geométrica. Essa distribuição com suporte semi-infinito depende de um parâmetro (às vezes chamado de intensidade), em que a densidade é definida como para todo .

Distribuição de probabilidade

da variável aleatória X (densidade)

Esperança

(1º momento)

Variância

(2º momento)

Notação
[65]

Distribuição normal

Uma distribuição normal ou distribuição gaussinana é uma distribuição central na teoria da probabilidade. Ela descreve o comportamento de séries de experiências aleatórias quando o número de tentativas é muito grande. É a distribuição limite do teorema central do limite. Ela é igualmente a única distribuição estável de parâmetro 2. A distribuição normal é caracterizada por sua média (que também é sua mediana) e seu desvio-padrão, com suporte da toda reta real. Sua densidade é simétrica e sua forma é comumente chamada de curva de Gauss ou curva em sino.

Distribuição de probabilidade

da variável aleatória X (densidade)

Esperança

(1º momento)

Variância

(2º momento)

Notação
[66]
Distribuição de Cauchy

A distribuição de Cauchy é a distribuição estável de parâmetro 1, o que dá as boas propriedades. Entretanto, é um exemplo típico de distribuição que não admite momentos, em particular nem média nem variância. Com suporte da toda reta real a sua densidade é simétrica.

Distribuição de probabilidade

da variável aleatória X (densidade)

Esperança

(1º momento)

Variância

(2º momento)

Notação
Não existe (é infinita) [67] Não existe (é infinita) [67]

A distribuição da posição de um movimento browniano no plano quando se atinge a reta é uma distribuição de Cauchy.[68]

Distribuição de Tukey-Lambda

Uma distribuição de Tukey-Lamba é uma distribuição absolutamente contínua. Logo possui uma densidade de probabilidade, mas não possui uma expressão analítica. Essa distribuição depende de um parâmetro e é definida a partir da função quantil .

Distribuição de probabilidade

da variável aleatória X (densidade)

Esperança

(1º momento)

Variância

(2º momento)

Notação

Distribuições singulares[editar | editar código-fonte]

Definição[editar | editar código-fonte]

Uma distribuição de probabilidade é chamada de contínua ou difusa[53] quando não possui nenhum átomo.

Em particular, as distribuições absolutamente contínuas são contínuas mesmo que o inverso não seja verdadeiro. A função de distribuição de uma distribuição contínua ser contínua[53] é uma propriedade necessária e suficiente.

Uma distribuição de probabilidade é chamada de singular quanto ela é contínua, mas não absolutamente contínua. Isto é, quando uma distribuição singular não possui nem átomo nem densidade. Esses conceitos também valem para as distribuições de probabilidade definidas a partir de variáveis aleatórias: uma variável aleatória é contínua ou difusa, respectivamente singular, quando a distribuição de probabilidade associada é contínua ou difusa, respectivamente singular.

Exemplo[editar | editar código-fonte]

Função de distribuição da distribuição de Cantor.

Distribuição de Cantor

É uma distribuição singular, definida a partir do conjunto de Cantor . Quando são variáveis aleatórias independentes e identicamente distribuídas de uma distribuição uniforme discreta em , então é uma variável aleatória da distribuição de Cantor.[69] Essa distribuição de probabilidade[70] descrita como é a distribuição uniforme do conjunto de Cantor. Sua função de distribuição é a escada de Cantor, diferenciável quase em todos pontos e derivada igual a zero em quase todos pontos.[69]

Em aplicações, é raro que uma distribuição contínua contenha uma parte singular.[63] Entretanto, o conjunto de Cantor aparece em exemplos conhecidos como o conjunto de zeros do movimento browniano.

Outros casos[editar | editar código-fonte]

Existem distribuições de probabilidade que não são nem discretas nem absolutamente contínuas nem singulares, às vezes denominadas leis mistas.[71][72] De um ponto de vista mais geral, toda distribuição de probabilidade pode se decompor[63][54] em uma combinação linear de uma distribuição contínua e de uma distribuição discreta . O teorema da decomposição de Lebesgue aplicado[63] a indica que essa distribuição contínua se decompõe em uma combinação linear de duas distribuições contínua, uma absolutamente contínua com relação à medida de Lebesgue e outra singular sem relação à medida de Lebesgue. Então, a decomposição é descrita como , em que e . A presença de garante que .

A seguinte distribuição de probabilidade real de um exemplo de uma distribuição mista obtida com a junção entre a distribuição discreta definida pelos átomos com a função de massa , e a distribuição absolutamente contínua[63] de densidade é descrita como sendo . Sua função de distribuição é uma função contínua por partes[73], mas não constante por partes como as funções de distribuição das distribuições discretas.

Intuitivamente isso corresponde a um fenômenos aleatório com a distribuição absolutamente contínua. Imagine o aparelho de medida que não pode medir os dados a partir de um certo limiar c. Todas as medidas não detectadas pelo aparelho serão atribuídas a 0: a distribuição será nula em qualquer parte "menor" do que c, em seguida, um salto aparece em singleton c. As medidas seguem a distribuição absolutamente contínua para os valores maiores que c.[71] No exemplo, a função de distribuição é descontínua em c.

Função de distribuição de uma distribuição mista.

Características de uma distribuição de probabilidade[editar | editar código-fonte]

Existem várias funções de variáveis reais ou complexas que determinam exclusivamente as distribuições de probabilidade. Certas propriedades dessas funções permitem deduzir propriedades para as distribuições como o cálculo de momento ou uma expressão da convergência em distribuição.

Utilização da função de distribuição[editar | editar código-fonte]

Função de distribuição de uma distribuição normal padrão.

De acordo com o sistema de Dynkin, os conjuntos chamados paralelepípedos ou retângulos geram[74] algebra de Borel que são suficientes para definir uma distribuição de probabilidade dos paralelepípedos. Supõe-se que a distribuição de probabilidade seja real. Isto é, .

A função de distribuição de uma distribuição de probabilidade real denotada como [75] é a função definida para todo

Uma distribuição de probabilidade é caracterizada por sua função de distribuição. Isto é, duas distribuições de probabilidade são iguais se e somente se suas funções de distribuição forem iguais.[76]

Mais genericamente, toda função monótona càdlàg é verificável: e são funções de distribuição de uma única[77] distribuição de probabilidade em . A distribuição de probabilidade definida a partir de uma função de distribuição é chamada de medida de Lebesgue-Stieltjes.[76]

Uma das vantagens da função é que ela é bem definida para qualquer distribuição de probabilidade.[77] Entretanto, ela nem sempre tem expressão explícita, por exemplo, a função de distribuição de distribuição normal. A função de distribuição às vezes permite o cálculo de distribuições tais que como a distribuição do máximo ou do mínimo de uma amostra e fornece um critério conveniente[78] de convergência de distribuições de probabilidade pelo teorema porte-manteau.

Utilização da função característica[editar | editar código-fonte]

Função característica de uma distribuição uniforme contínua em [-1,1]. Se a distribuição for simétrica, a função característica será real.

Chamada função característica de uma distribuição de probabilidade e denotada como é a simetria da transformada de Fourier de . Para todo :

Como o nome sugere, a função característica determina exclusivamente a distribuição.[79] Isto é, duas distribuições de probabilidade são iguais se e somente se suas funções características forem iguais.

Uma das vantagens da distribuição característica é que ela existe para toda distribuição de probabilidade.[80][78] Usando a fórmula da inversão da transformada de Fourier[81], a distribuição de probabilidade também é obtida a partir da função característica. A representação das distribuições para as funções características ainda permite caracterizar[82] a convergência das distribuições de probabilidade pelo teorema de porte-manteau.

Nos casos em que a distribuição de probabilidade é definida a partir de uma variável aleatória , de acordo com o teorema da transferência para todo

Utilização da função geradora de momentos[editar | editar código-fonte]

Função geradora de momentos de uma distribuição uniforme contínua em [-1,1].

A função geradora de momentos de uma distribuição de probabilidade denotada como é a simetria da transformada de Laplace[83][70] de . Quando a função é integrada em relação à medida para todo :

A função geradora de momentos determina a distribuição de probabilidade unicamente se essa função existe em um intervalo que contem a origem.[84]

Uma das vantagens da função geradora de momentos é que ela permite encontrar os momentos da distribuições de probabilidade pelas derivadas.[83] Para todo , a -ésima derivada da função geradora de momento em 0 é o momento da distribuição de probabilidade em que .

A representação das distribuições para a função geradora de momentos também permite caracterizar[84] a convergência das distribuições de probabilidade pelo teorema porte-manteau.

Nos casos em que a distribuição de probabilidade é definida a partir de uma variável aleatória , de acordo com o teorema da transferência para todo : .

Para as distribuições definidas a partir de variáveis aleatórias, essa função também permite mostrar a independência das variáveis.[83]

Existe um caso particular das distribuições discretas. A função geradora de probabilidades de uma distribuição de probabilidade discreta é definida[83] como a esperança da série geradora sub a condição da existência desta série. Essa função geradora determina a distribuição de probabilidade unicamente.[83]

Outras características[editar | editar código-fonte]

A função quantil[85] de uma distribuição de probabilidade real denotada como é a função que fornece o quantil da distribuição. Ela é definida como para[86] todo : , em que é a função de distribuição de .

Exemplos de quantis.

Certas distribuições de probabilidade são mais fáceis de definir pela função quantil. Intuitivamente é o valor tal que uma proporção de valores possíveis menor de que esse valor é igual . , , e são, respectivamente, o primeiro quantil, a mediana e o terceiro quantil da distribuição.

Se é bicontínua[87] então é a função recíproca da função de distribuição[87] , sendo que no caso geral também é chamada de função quantil recíproca geradora de ou função inversa contínua à direita de .

Essa função quantil determina a distribuição associada[86] a no sentido que, se é uma variável aleatória da distribuição uniforme contínua de [0,1], então é uma variável aleatória da distribuição inicial . Essa representação é particularmente útil por simular as distribuições de probabilidade[88], sendo suficiente então para simular uma distribuição uniforme contínua e aplicar a função quantil (ver seção abaixo sobre simulação de distribuição de probabilidade).

Certas distribuições não são funções de distribuição explícitas, mas são definidas a partir de uma função quantil é um caso da distribuição de Tukey-Lambda.

Utilizações[editar | editar código-fonte]

Frequentemente a distribuição estatística de uma variável em uma população refere-se aos modelos matemáticos da distribuição de probabilidade.[89] Geralmente é interessante estudar o modelo probabilístico por razões práticas e teóricas, de acordo com afirmações acadêmicas.[90] O estudo começa com uma seleção aleatória de diversos valores ou indivíduos. Se o método utilizado for perfeito (se os valores observados são derivados se uma seleção equiprovável)[89], então são variáveis aleatórias e o estudo do fenômeno equivale ao estudo da distribuição de probabilidade.

Simulação de uma distribuição de probabilidade[editar | editar código-fonte]

Para estudar as distribuições de probabilidade, é importante fazer simulações. Em particular, com o uso de computadores. As distribuições de probabilidade são caracterizadas pela função quantil por meio de uma variável aleatória com distribuição uniforme. Em geral, esse método engloba duas etapas:[91] gerar os referidos valores pseudo aleatórios com distribuição uniforme e inverter a função de distribuição da distribuição estudada. Como a segunda etapa não é óbvia para todas as distribuições, outros métodos são utilizados.

Simulação da distribuição uniforme contínua, mostrando a imperfeição de 10 mil valores pseudo aleatórios pela presença de áreas menos densas.

Simulação da distribuição uniforme[editar | editar código-fonte]

Para obter valores da distribuição uniforme contínua, o computador simula os valores da distribuição uniforme discreta. Podem ser usados vários métodos:[92] os algoritmos aritméticos são método mais simples, enquanto que as tabelas que podem conter mais de um milhão de dados são cada vez menos utilizadas e os processos físicos como a criação de um ruído de fundo são bastante onerosos para a recuperação de dados. Como os algoritmos são deterministas (não aleatórios), os valores obtidos são chamados pseudo aleatórios. Muitos algoritmos foram desenvolvidos para melhorar a independência e a distribuição entre os valores no intervalo .

Simulação das outras distribuições

Quando a função de distribuição é reversível, usa-se a caracterização pela função quantil. Quando a função de distribuição não é reversível, podem ser usados vários os seguintes métodos: a transformação de Box-Muller simula a distribuição normal[93], a técnica de rejeição de von Neumann é baseada em um teste estatístico e é aplicável a várias distribuições[94], dentre outros métodos específicos.[95]

Exemplo

Um exemplo conhecido de utilização de uma simulação de distribuição de probabilidade é o método de Monte Carlo. Por exemplo, para aproximar o valor de . O método de Monte Carlos consiste em simular um grande número de valores de acordo com uma distribuição uniforme contínua em  e computar a proporção dos pares em que . Essa proporção aproxima-se de quando o número de pontos tende ao infinito.[96]

Aproximação de uma distribuição de probabilidade[editar | editar código-fonte]

Ilustração do teorema central do limite. As sequências empíricas são os possíveis valores da soma de dados () de seis lados lançados aleatoriamente. Quando aumenta, os histogramas convergem para a curva de Gauss que é a densidade da distribuição normal.

Várias aproximações de uma distribuição de probabilidade existam usando diferentes métodos descritas acima. Essas são as técnicas usadas geralmente em casos práticos. O primeiro passo é o recolhimento dos dados, que permite construir objetos empíricos como a função de distribuição empírica. Esses objetos empíricos são às vezes chamados de distribuição de probabilidade, mas são realmente leis empíricas chamadas de distribuições estatísticas[89]. Os teoremas limites ou os testes estatísticos permitem finalmente identificar a melhor distribuição de probabilidade que modela o fenômeno aleatório inicial.[90]

Função de distribuição[editar | editar código-fonte]

O teste estatístico de Kolmogorov-Smirnov, baseado no teorema de Portmanteau, permite identificar a função de distribuição empírica calculada a partir dos dados de uma função de distribuição de uma distribuição de probabilidade, em função de uma taxa de rejeição. A vantagem da convergência das funções de distribuição é que as funções existem para todas as distribuições de probabilidade. Essa convergência permite particularmente aproximar uma distribuição absoluta contínua de uma série de distribuições discretas.[98]

Convergência de outras funções características[editar | editar código-fonte]

Diferentes teoremas de convergência de variáveis aleatórias permitem construir uma sequência de distribuições de probabilidade que converge para uma determinada distribuição ou uma distribuição como o limite das distribuições de probabilidade. O teorema central do limite coloca a distribuição normal como a distribuição limite. O teorema da continuidade de Paul Lévy refere-se a convergência das funções características.

Exemplo de Henry em um diagrama quantil-quantil que permite comparar visualmente os quantis empíricos com os quantis teóricos. É a distribuição normal, não adequada.

Regressão quantílica[editar | editar código-fonte]

A regressão quantílica permite aproximar os quantis da distribuição dos quantis empíricos. Isto é, calculados a partir de quaisquer dados. Um teste estatístico pode ser usado para comparar os quantis empíricos (observados) com os quantis da suposta distribuição para modelar o fenômeno estudado. Essa abordagem é particularmente útil por estudar certas distribuições que não são explicitamente conhecidas por sua função densidade ou sua função de distribuição, mas por seus quantis como a distribuição de Tukey-Lambda.

Testes estatísticos[editar | editar código-fonte]

Vários testes estatísticos existem para comparar duas distribuições. Especificamente, os testes de aderência permitem comparar um distribuição empírica (isto é, calcular a partir de dados baseados em amostras) com uma suposta distribuição de probabilidade para modelar o fenômeno estudado. Os dois principais testes estatísticos são o teste de Kolmogorov-Smirnov que compara as funções de distribuição e o teste de adequação qui-quadrado que compara os efeitos observados com a distribuição qui-quadrado. Os testes com distribuição normal são chamados testes de normalidade.

Os testes de homogeneidade permitem comparar duas distribuições empíricas para verificar se elas pertencem ao mesmo fenômenos ou se elas podem ser modeladas pela mesma distribuição de probabilidade a priori. Esses testes comparam certas propriedades das distribuições empíricas com a propriedade da distribuição a priori. Eles são úteis na prática porque permite comparar não as distribuições inteiras, mas os valores das distribuições:[99] o teste de Fisher estima as variâncias empíricas por meio da distribuição de Fisher[99], o teste de Student estima a média empírica por meio da distribuição de Student[100] etc.

Exemplos de modelagem[editar | editar código-fonte]

As distribuições de probabilidade são usadas para representar os fenômenos observados. Uma distribuição de probabilidade dita a priori se ela é assumida para modelar os dados recuperados. Os testes estatísticos são realizados para afirmar ou rejeitar a concordância da distribuição de probabilidade com os dados. Em muitas áreas, os métodos evoluíram e melhores distribuições de probabilidade foram criadas para atender os problemas. Segue uma lista com exemplos concretos de modelagem:

  • na economia: a bolsa de valores é uma instituição de troca de bens e de títulos mobiliários. É realizado um estudo da evolução histórica dos preços, incluindo a modelagem da variação dos preços, para melhor estimar os preços futuros de um bem ou de um título. Essas variações foram modeladas por uma distribuição normal em um primeiro momento (Louis Bachelier) e melhoradas com distribuições de Pareto estáveis (Benôit Mandelbrot) em um segundo momento. Esses novos modelos sempre procuraram melhorar a percepção de risco desde então.[101]
  • em jogos de azar: para jogar na loteria francesa, é possível escolher 6 entre 49 números possíveis. Se os números são escolhidos ao acaso pelos apostadores (isto é, com uma distribuição uniforme discreta), então o número de ganhadores segue uma distribuição de Poisson. Um estudo pode ser realizado porque o número de ganhadores é um dado conhecido. Parece que a escolha não é uniforme, mas que alguns números foram escolhidos mais de que os outros.[102]
  • em manutenção: uma boa compreensão da degradação permite melhorar a performance da manutenção. Várias distribuições a priori são usadas para modelar a evolução das fissuras das calçadas: a distribuição exponencial, a distribuição de Weibull, a distribuição log-normal, a distribuição log-logística etc . Para a utilização do método da máxima verossimilhança, a distribuição log-logistica faz parte das distribuições mais adequadas.[103]
  • em medicina: para testar a eficácia dos medicamentos, um ensaio clínico é realizado com uma amostra de pacientes. Esse método faz parte da teoria da decisão. Ele consiste em selecionar um paciente para realizar um teste com dois resultados possíveis (sucesso ou fracasso). Isto é, um teste modelado por uma distribuição de Bernoulli. Em seguida, o teste é repetido quantas vezes forem necessárias. Esse é o método de ensaio de Bernoulli. Um método melhor é usar a distribuição hipergeométrica, que permite considerar apenas o conjunto de pacientes previamente definido.[104]
  • em meteorologia: em hidrologia, a pluviometria é o estudo da quantidade de água depois de uma chuva em um ponto do solo por um determinado período de tempo. Não há consenso entre a comunidade científica internacional sobre a escolha da distribuição a priori. Uns autores defendem o uso da distribuição log-normal que se ajusta bem aos valores pequenos. Outros autores sugerem o uso da distribuição gama que se ajusta bem aos valores experimentais. O uso da distribuição de Pareto é interessante para representar os valores médios.[105]

Ver também[editar | editar código-fonte]

Referências

  1. a b Wackerly, Dennis; Mendenhall, William; Schaeffer, Richard L. (2008). Mathematical Statistics with Applications. Belmont: Brooks Cole. 86 páginas 
  2. a b Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 229 páginas 
  3. a b Henry, Michel (2001). Probabilités et Statistique. Besançon: Presses Universitaires de Franche-Comté. 14 páginas 
  4. Dalang, Robert C.; Conus, Daniel (2008). Introduction à la Théorie des Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 127 páginas 
  5. Henry, Michel (2001). Probabilités et Statistique (Besançon: Presses Universitaires de Franche-Comté). p. 34
  6. a b c d Dalang, Robert C.; Conus, Daniel (2008). Introduction à la Théorie des Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 128 páginas 
  7. Henry, Michael (2001). Probabilités et Statistique. Besançon: Presses Universitaires de Franche-Comté. 42 páginas 
  8. Henry, Michael (2001). Probabilités et Statistique. Besançon: Presses Universitaires de Franche-Comté. 54 páginas 
  9. a b c d Caumel, Yves (2011). Probabilités et Processus Stochastiques. Paris: Springer. 137 páginas 
  10. Henry, Michael (2001). Probabilités et Statistique. Besançon: Presses Universitaires de Franche-Comté. 55 páginas 
  11. a b c Ruegg, Alan (1994). Autour de la Modélisation en Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 35 páginas 
  12. a b Saporta, Gilbert (2006). Probabilités, Analyse des Données et Statistiques. Paris: Éditions Technip. 16 páginas 
  13. a b c Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 45 páginas 
  14. Ducel, Yves (1996). Les Probabilités à L'agrégation Externe de Mathématiques: Guide pour une Révision. Besançon: Presses Universitaires de Franche-Comté. 8 páginas 
  15. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 54 páginas 
  16. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer - Verlag. 196 páginas 
  17. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer - Verlag. 160 páginas 
  18. Saporta, Gilbert (2006). Probabilités, Analyse des Données et Statistiques. Paris: Éditions Technip. 69 páginas 
  19. Saporta, Gilbert (2006). Probabilités, Analyse des Données et Statistiques. Paris: Éditions Technip. 22 páginas 
  20. Saporta, Gilbert (2006). Probabilités, Analyse des Données et Statistiques. Paris: Éditions Technip. 85 páginas 
  21. Saporta, Gilbert (2006). Probabilités, Analyse des Données et Statistiques. Paris: Éditions Technip. 87 páginas 
  22. a b c d Ducel, Yves (1996). Les Probabilités à L'agrégation Externe de Mathématiques: Guide pour une Révision. Besançon: Presses Universitaires de Franche-Comté. 9 páginas 
  23. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 51 páginas 
  24. Ruegg, Alan (1994). Autour de la Modélisation en Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 20 páginas 
  25. Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 44 páginas 
  26. a b Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 150 páginas 
  27. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 162 páginas 
  28. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 160 páginas 
  29. Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 46 páginas 
  30. Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 77 páginas 
  31. Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 80 páginas 
  32. Ledoux, Michel; Talagrand, Michel (2002). Probability in Banach Spaces. Berlin: Springer. 37 páginas 
  33. Ledoux, Michel; Talagrand, Michel (2002). Probability in Banach Spaces. Berlin: Springer. 38 páginas 
  34. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer - Verlag. 178 páginas 
  35. Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 139 páginas 
  36. a b c Ledoux, Michel; Talagrand, Michel (2002). Probability in Banach Spaces. Berlin: Springer. 39 páginas 
  37. Ledoux, Michel; Talagrand, Michel (2002). Probability in Banach Spaces. Berlin: Springer. 40 páginas 
  38. a b c Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 17 páginas 
  39. Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 25 páginas 
  40. Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 30 páginas 
  41. Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 30 páginas 
  42. a b Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 26 páginas 
  43. Ruppert, David (2004). Statistics and Finance: An Introduction. Ithaca: Springer. 24 páginas 
  44. a b Wackerly, Dennis; Mendenhall, William; Schaeffer, Richard L. (2008). Mathematical Statistics with Applications. Belmont: Brooks Cole. 463 páginas 
  45. Mardia, K. V. «Characterizations of Directional Distributions». Statistical Distributions in Scientific Work: 365 - 385  Verifique data em: |acessodata= (ajuda);
  46. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 182 páginas 
  47. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 294 páginas 
  48. a b c d Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 155 páginas 
  49. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 234 páginas 
  50. a b Caumel, Yves (2011). Probabilités et Processus Stochastiques. Paris: Springer. 135 páginas 
  51. a b Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. Paris: Springer. 13 páginas 
  52. Caumel, Yves (2011). Probabilités et Processus Stochastiques. Paris: Springer. 136 páginas 
  53. a b c Martiano, Jean-Jacques (2006). Maths: Prépas Commerciales. [S.l.]: Sutdyrama. 242 páginas 
  54. a b Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 47 páginas 
  55. Martiano, Jean-Jacques (2006). Maths: Prépas Commerciales. [S.l.]: Studyrama. 157 páginas 
  56. Barbé, Philippe (2007). Probabilité. Les Ulis:: EDP Sciences. 13 páginas 
  57. a b c d e Ross, Sheldon (2010). Probabilidade - Um Curso Moderno com Aplicações. Proto Alegre: Bookman 
  58. a b Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 156 páginas 
  59. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 31 páginas 
  60. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 42 páginas 
  61. Ruegg, Alan (1994). Autour de la Modélisation en Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 52 páginas 
  62. Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 18 páginas 
  63. a b c d e Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 36 páginas 
  64. Erro de citação: Etiqueta <ref> inválida; não foi fornecido texto para as refs de nome Bussab-173
  65. BUSSAB & MORETTIN (2002), p. 180
  66. BUSSAB & MORETTIN (2002), p. 175
  67. a b CASELLA & BERGER (2010), p. 97.
  68. «Note sur la Fonction Zeta de Riemann, 2» (PDF). Advances in Mathematics: 284 - 287. Consultado em 31 de outubro  Verifique data em: |acessodata= (ajuda); |coautores= requer |autor= (ajuda)
  69. a b Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 37 páginas 
  70. a b Ledoux, Michel; Talagrand, Michel (2002). Probability in Banach Spaces. Berlin: Springer. 22 páginas 
  71. a b Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. 71 páginas 
  72. Caumel, Yves (2011). Probabilités et Processus Stochastiques. Paris: Springer. 80 páginas 
  73. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. 72 páginas 
  74. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 144 páginas 
  75. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 151 páginas 
  76. a b Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 154 páginas 
  77. a b Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 152 páginas 
  78. a b Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 38 páginas 
  79. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 282 páginas 
  80. Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 55 páginas 
  81. Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 57 páginas 
  82. Shiryaev, Albert (1995). Probability. Nova Iorque: Springer. 322 páginas 
  83. a b c d e Saporta, Gilbert (2006). Probabilités. Paris: Éditions Technip. 60 páginas 
  84. a b Klebaner, Fima (2005). Introduction to Stochastic Calculus With Applications. Londres: Imperial College Press. 38 páginas 
  85. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. 88 páginas 
  86. a b Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 50 páginas 
  87. a b Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. 88 páginas 
  88. Barbé, Philippe; Ledoux, Michel (2007). Probabilité. Les Ulis: EDP Sciences. 49 páginas 
  89. a b c Saporta, Gilbert (2006). Probabilités, Analyse des données et Statistiques. Paris: Éditions Technip. 28 páginas 
  90. a b Ruegg, Alan (1994). Autour de la Modélisation en Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. 37 páginas 
  91. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 187 páginas 
  92. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 182 páginas 
  93. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 188 páginas 
  94. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 189 páginas 
  95. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 191 páginas 
  96. Jedrzejewski, Franck (2009). Modèles Aléatoires et Physique Probabiliste. [S.l.]: Springer. 215 páginas 
  97. Henry, Michel (2001). Probabilités et Statistique (Besançon: Presses Universitaires de Franche-Comté). p. 194
  98. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. 70 páginas 
  99. a b Saporta, Gilbert (2006). Probabilités, Analyse des données et Statistiques. Paris: Éditions Technip. 340 páginas 
  100. Saporta, Gilbert (2006). Probabilités, Analyse des données et Statistiques. Paris: Éditions Technip. 342 páginas 
  101. Albouy, Michel; A. Sinani (1981). «L'efficience des Bourses de Province Françaises» (PDF). Journal de la Société Statistique de Paris: 200 - 214 
  102. Roger, P.; M.-H. Broihanne (2006). «Les Joueurs de Loto Français Choisissent-Ils leurs Numéros au Hasard?» (PDF). Revue de Statistique Appliquée: 83 - 98. Consultado em 09 de novembro de 2016  Verifique data em: |acessodata= (ajuda)
  103. Courilleau, E. Courilleau; J. M. Marion (1999). «Comparaison de Modèles D'Estimation de la Fonction de Survie Appliquée à des Données Routières» (PDF). Revue de Statistique Appliquée: 81- 97. Consultado em 09 de novembro de 2016  Verifique data em: |acessodata= (ajuda)
  104. Boutros-Toni, F. (1981). «L'Analyse Séquentielle Exhaustive. Application en Médecine» (PDF). Revue de Statistique Appliquée: 31 - 50. Consultado em 09 de novembro de 2016  Verifique data em: |acessodata= (ajuda)
  105. Reffye, J. de (1982). «Étude Phénoménologique des Précipitations Pluvieuses. Modélisation Mathématiques des Intensités de Pluie en un Point du Sol» (PDF). Revue de Statistique Appliquée: 39 - 63. Consultado em 09 de novembro de 2016  Verifique data em: |acessodata= (ajuda)