Usuária:MCarrera (NeuroMat)/Testes/Distribuição normal (fórmulas)

Origem: Wikipédia, a enciclopédia livre.
Distribuição Normal
Densidade de probabilidade
A cor vermelha representa a função de densidade de probabilidade da distribuição normal padrão ~ N(0,1)
Função de distribuição acumulada
A cor vermelha representa a função de distribuição acumulada da distribuição normal padrão ~ N(0,1)
Parâmetros , média;
, variância
Suporte
f.d.p.
f.d.a.
Média
Mediana
Moda
Variância
Obliquidade 0
Curtose 0
Entropia
Função Geradora de Momentos
Função Característica
Os diagramas em barras representam as distribuições discretas da soma de 1, 2, 3, 4 ou 5 dados. A curva preta representa a densidade da distribuição normal como o limite dos gráficos de barras.

Em probabilidade e estatística, a distribuição normal é uma das distribuições de probabilidade mais utilizada para modelar fenômenos naturais. A distribuição é ligada a vários conceitos matemáticos como movimento browniano, ruído branco entre outros. A distribuição normal também é chamada distribuição gaussiana, distribuição de Gauss ou distribuição de Laplace–Gauss, em referência aos matemáticos, físicos e astrônomos francês Pierre–Simon Laplace (1749 – 1827) e alemão Carl Friedrich Gauss (1777 – 1855).

Em termos mais formais, a distribuição normal é uma distribuição de probabilidade absolutamente contínua parametrizada pela sua esperança (número real ) e desvio padrão (número real positivo ). A densidade de probabilidade da distribuição normal é denotada como

A curva de densidade é chamada de curva de Gauss ou de curva de sino. A distribuição normal com média nula e desvio padrão unitário é chamada de distribuição normal centrada e reduzida ou de distribuição normal padrão. O papel central da distribuição normal decorre do fato de ser o limite de um grande número de distribuições de probabilidade como mostra o teorema central do limite o qual permite estudar probabilisticamente a média das variáveis independentes de uma amostra aleatória simples de tamanho grande e, a distribuição normal corresponde ao comportamento de efeito agregado de experiências aleatórias independentes e semelhantes em certas circunstâncias quando o número de experiências é muito alto. Com esta propriedade, a distribuição normal pode aproximar–se de distribuição de efeito agregado de outras distribuições e modelar vários estudos científicos como erros de medição ou testes estatísticos com as tabelas de distribuição normal.

Quando uma variável aleatória segue uma distribuição normal, ela é chamada de gaussiana ou de normal. Comumente é usada a notação com a variância sigma-minúsculo quando a variável aleatória x-maiúsculo se aproxima da função de distribuição normal n-maiúsco de, abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis.

Histórico[editar | editar código-fonte]

page de couverture de l'essai de Laplace
p90 de l'essai de Laplace
Le théorème central limite, [S.l.: s.n.]  Parâmetro desconhecido |passage= ignorado (|pagina=) sugerido (ajuda); Parâmetro desconhecido |nom1= ignorado (|nome=) sugerido (ajuda); Parâmetro desconhecido |année= ignorado (|ano=) sugerido (ajuda); Parâmetro desconhecido |langue= ignorado (|lingua=) sugerido (ajuda); Parâmetro desconhecido |prénom1= ignorado (ajuda); Parâmetro desconhecido |lien auteur1= ignorado (|autorlink=) sugerido (ajuda); Parâmetro desconhecido |titre= ignorado (|titulo=) sugerido (ajuda); Parâmetro desconhecido |numéro d'édition= ignorado (ajuda); Em falta ou vazio |título= (ajuda)

Uma das primeiras aparições da distribuição normal ocorreu em 1733 com Abraham de Moivre[1] com o aprofundamento do estudo de fatorial quando considerado um jogo de cara ou coroa. Em 1756, ele publicou A Doutrina das Chances, em que a distribuição normal aparece como o limite de uma distribuição binomial, o que originaria o teorema central do limite.[2]

Em 1777, Pierre–Simon Laplace retomou o trabalho e obteve uma boa aproximação do erro entre a distribuição normal e a distribuição binomial em razão da função gama de Euler.[1] Em seu livro publicado em 1781, Laplace publica uma primeira tabela da distribuição normal. Em 1809, Carl Friedrich Gauss assimila os erros da observação na astronomia à curva, erros da densidade da distribuição normal.[2]

A distribuição normal é totalmente definida quando o primeiro teorema central do limite (chamado então teorema de Laplace) é elaborado por Laplace em 1821.[2] O nome normal é dado por Henri Poincaré no fim do século XIX.[3] A distribuição normal também pode ser chamada de distribuição de Gauss ou distribuição de Laplace–Gauss,[4] de acordo com sua autoria. A denominação segunda distribuição de Laplace também é usada ocasionalmente.[5][6]

A distribuição normal é estudada frequentemente. Por exemplo, novas tabelas digitais foram publicadas por Egon Sharpe Pearson em 1948, pelo National Bureau of Standards[7] em 1952 e por Greenwood e Hartley[8] em 1958.

Distribuição normal padrão[editar | editar código-fonte]

A distribuição normal é uma distribuição de probabilidade (uma medida , de massa total unitária[9]) unidimensional (com suporte real ). É uma distribuição absolutamente contínua (a medida é absolutamente contínua em relação à medida de Lebesgue). Em outras palavras, existe uma densidade de probabilidade muitas vezes denotada como phi-minúsculo para a distribuição normal padrão tal como . função n-maiúsculo de diferencial d-minúsculo da variável x-minúsculo. Igual a função phi-minúsculo vezes diferencial d-minúsculo da variável x-minúsculo É generalizada para a distribuição normal multivariada. A distribuição normal padrão também pode ser chamada de distribuição normal centrada e reduzida.[10]

Definição pela função densidade[editar | editar código-fonte]

Courbe de Gauss
Função densidade da distribuição normal padrão (curva de Gauss ou curva em sino).

Densidade de distribuição normal padrão é dada pela função função phi-minúsculo com domínio no conjunto dos números reais r-maiúsculo e contra-domínio no conjunto dos números positivos reais r-maiúsculo definida por[11] a função phi-minúsculo de t-minúsculo. Igual a razão do número um pela raiz quadrada de dois vezes pi-minúsculo. Vezes e-minúsculo elevado a, menos a razão do número um por dois, vezes, t-minúsculo elevado ao número dois , para todo . t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo Esta distribuição é chamada centrada porque o valor do seu momento de ordem 1 (esperança) é 0 e reduzida porque o valor do seu momento de ordem 2 (variância) é 1, assim como o seu desvio padrão. O gráfico da densidade é chamado função gaussiana, curva de Gauss ou curva em sino. A distribuição normal é denotada pela letra . Uma variável aleatória que segue uma distribuição normal padrão é denotada como . a variável aleatória x-maiúsculo se aproxima da função de distribuição normal n-maiúsco de, abre parentesis, zero e o número um, fecha parêntesis.

Seguem algumas propriedades sobre a função densidade:

  • O cálculo da integral de Gauss permite demonstrar que a função phi-minúsculo é uma densidade de probabilidade pela fórmula . integral definida de menos infinito até mais infinito da função exponencial EXP de menos a razão de um por dois vezes t-minúsculo elevado a dois vezes diferencial d-minúsculo da variável t-minúsculo. Igual a raiz quadrada de dois vezes pi-minúsculo.
  • É contínua, uniformemente limitada e par.[12]
  • O máximo da função é atingido na média 0 e de valor[12] . razão do número um por raiz quadrada de dois vezes pi-minúsculo.
  • Verifica . limite de x-minúsculo tendendo ao mais infinito da função phi-minúsculo de x-mianúsculo. Igual ao limite de x-minúsculo tendendo a menos infinito da função de phi-minúsculo de x-minúsculo igual a zero.
  • A densidade é infinitamente derivável. Uma indução matemática permite obter a fórmula[13] para -ésima derivada de : , phi-minúsculo, dois pontos. função phi-minúsculo elevado a n-minúsculo de x-minúsculo. Igual a menos número um elevado a n-minúsculo vezes a n-ésima função h-maiúsculo sub-escrito n-minúsculo de x-minúsculo vezes a função phi-minúsculo de x-minúsculo em que n-ésimo h-maiúsculo sub-escrito n-minúsculo é o –ésimo polinômio de Hermite.
  • A densidade possui[9] dois pontos de inflexão, em 1 e em –1. Estes são os pontos em que a segunda derivada phi-minúsculo elevado a dois apóstrofos se anula e muda de sinal. Os dois pontos são aproximadamente três quintos da altura total.

Definição pela função distribuição[editar | editar código-fonte]

Fonction de répartition
Função distribuição da distribuição normal padrão.

Historicamente a distribuição normal aparece como a distribuição limite no teorema central do limite, usando a função de distribuição cumulativa. A distribuição normal é a distribuição de probabilidade, em que a função de distribuição é dada pela função função phi-maiúsculo com domínio no conjunto dos números reais r-maiúsculo e contra-domínio no conjunto dos números positivos reais r-maiúsculo definida por[14] função phi-maiúsculo de x-minúsculo igual a razão do número um pela raiz quadrada de de dois vezes pi-minúsculo vezes a integral definida de menos infinito até x-minúsculo vezes e-minúsculo elevado a menos razão de um por dois vezes t-minúsculo elevado a dois vezes a diferencial d-minúsculo de t-minúsculo , para todo . Ela fornece a probabilidade de uma variável aleatória de distribuição normal pertencer a um intervalo fechado , . função probabilidade p-maiúsculo de x-maiúsculo pertencente ao intervalo fechado de, abre colchetes, a-minúsculo, vírgula, b-minúsculo, fecha colchetes. Igual a função phi-maiúsculo de b-minúsculo menos a função phi-maiúsculo de a-minúsculo.

Seguem algumas propriedades sobre a função de distribuição:

  • Não existe uma expressão analítica para a função de distribuição phi-maiúsculo. Isto é, não é expressa a partir de funções usuais, mas torna–se uma função usual.[15] Para obter os valores de probabilidade função phi-maiúsculo de x-minúsculo. Igual a função de probabilidade p-maiúsculo de x-maiúsculo menor ou igual a x-minúsculo é preciso aproximar esta função de outras funções usuais gerando a tabela de valores.
  • Pode ser expressa em função da função erro por meio das seguintes fórmulas equivalentes[16] , . função phi-maiúsculo de x-minúsculo. Igual a razão do número um por dois mais a razão do número um por dois vezes função erro ERF da razão de x-minúsculo pela raiz quadrada de dois. Função erro ERF de x-minúsculo igual a dois vezes a função phi-maiúsculo de x-minúsculo vezes a raiz quadrada de dois, menos um.
  • É infinitamente derivável e verifica . função derivada phi-maiúsculo elevado a apóstrofo de x-minúsculo igual a função phi-minúsculo de x-minúsculo A fórmula equivalente diferencial d-minúsculo da função phi-maiúsculo de x-minúsculo igual a função phi-minúsculo de x-minúsculo vezes a diferencial d-miníusculo da variável x-minúsculo permite definir a integral de Lebesgue–Stieltjes com relação à distribuição normal.
  • É absolutamente contínua e estritamente crescente, sendo uma bijeção[17] de conjunto dos números reais r-maiúsculo em intervalo aberto . O recíproco phi-maiúsculo elevado a menos o número um é chamado de função inversa da função distribuição acumulada da distribuição normal. Por exemplo, esta função é utilizada pelo modelo probit.[18]
  • Pela paridade da distribuição, . função phi-maiúsculo de menos x-minúsculo igual a número um menos a função phi-maiúsculo de x-minúsculo Portanto, . função phi-maiúsculo de zero igual a razão de um por dois Isto mostra[17] que a mediana da distribuição normal padrão é 0.

Definição pela função característica[editar | editar código-fonte]

Fonction caractéristique
Função característica e função geradora de momentos da distribuição normal padrão.

A caracterização da distribuição normal pela função característica tem o objetivo de demonstrar certas propriedades como a estabilidade da soma e o teorema central do limite. A função característica de distribuição normal padrão é dada por função phi-minúsculo com domínio o conjunto dos números reais r-maiúsculo e contra-domínio o conjunto dos números positivos reais r-maiúsculo e definida por [19][20], função phi-minúsculo de t-minúsculo igual a e elevado a menos razão de t-minúsculo elevado a dois por dois para todo t-minúsculo pertencente aos números reais r-maiúsculo. No grego existe duas variações para a letra phi-minúsculo e o phi-minúsculo utilizado nesse momento é um phi-minúsculo diferente do outro phi-minúsculo do início do texto. Ou seja, são dois phi-minúsculos diferentes.

Esta função característica é proporcional a densidade da distribuição padrão. Ela permite demonstrar certas propriedades como a estabilidade por adição e o teorema central do limite.

Seguem algumas propriedades sobre a função de distribuição:

  • A função característica da distribuição normal pode ser obtida a partir da função densidade pelas igualdades[14] . função phi-minúsculo de t-minúsculo. Igual a integral definida de menos infinito até mais infinito e e-minúsculo elevado a i-minúsculo vezes t-minúsculo vezes x-minúsculo. Vezes a função diferencial d-minúsculo da função phi-maiúsculo de x-minúsculo igual a integral definida de menos infinito até mais infinito de e-minúsculo elevado i-minúsculo vezes t-minúsculo vezes x-minúsculo menos razão de x-minúsculo elevado a dois por dois. Vezes a diferencial d-minúsculo de x-minúsculo. igual a e-minúsculo elevado a menos a razão de t-minúsculo elevado a dois por dois.
  • Se uma variável aleatória segue uma distribuição normal padrão da função característica definida acima, então[21] a transformação linear y-maiúsculo igual a a-minúsculo vezes x-maiúsculo mais b-minúsculo admite a função característica . função phi-maiúsculo sub-escrito y-maiúsculo de t-minúsculo igual e-minúsculo elevado a i-minúsculo vezes b-minúsculo vezes t-minúsculo vezes a função phi-minúsculo de a-minúsculo vezes t-minúsculo É uma variável aleatória com distribuição normal de média e variância .

Definição pela função geradora de momentos[editar | editar código-fonte]

Uma outra maneira de definir a distribuição normal padrão é pela utilização da função geradora de momentos. É a distribuição de probabilidade, em que a função geradora de momentos é dada por função m-maiúsculo com domínio o conjunto dos números reais r-maiúsculo e contra-domínio o conjunto dos números positivos reais r-maiúsculo e definida por[22] , função m-maiúsculo de t-minúsculo igual a e-minúsculo elevado a t-minúsculo elevado a dois por dois para todo . t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo O objetivo é calcular os momentos da distribuição normal.[23]

Seguem algumas propriedades sobre a função de distribuição:

  • A função geradora de momentos da distribuição normal pode ser obtida a partir da função densidade[22], seja segue uma distribuição normal padrão, então função m-maiúsculo de t-minúsculo igual a esperança e-maiúsculo de e-minúsculo elevado a t-minúsculo vezes x-maiúsculo. Igual a razão do número um pela raiz quadrada de dois vezes pi-minúsculo vezes a integral definida de menos infinito até mais infinito vezes e-minúsculo elevado e menos razão de x-minúsculo elevado a dois por dois. Vezes a diferencial d-minúsculo da variável x-minúscula. Igual...

... igual a razão de]o número um pela raiz quadrada de dois vezes pi-minúsculo vezes a integral definida de menos infinito até mais infinito vezes e-minúsculo elevado a menos, abre parentesis, razão de, abre parentesis, x-minúsculo menos t-minúsculo, fecha parentesis, elevado a dois. Menos t-minúsculo elevado a dois, por dois. Fecha parêntesis. Vezes a diferencial d-minúsculo da variável x-minúsculo. Igual...

...Igual a e-minúsculo elevado a t-minúsculo elevado a dois por dois. Vezes o número um pela raiz quadrada de dois vezes pi-minúsculo vezes a integral definida de menos infinito até mais infinito de e-minúsculo elevado a menos razão de x-minúsculo elevado a dois por dois. Vezes a diferencial d-minúsculo da variável x-minúsculo. Igual a e-minúsculo elevado a razão de t-minúsculo elevado a dois por dois.

  • Se uma variável aleatória segue uma distribuição normal padrão da função geradora de momentos , então a transformação linear y-maiúsculo igual a a-minúsculo vezes x-maiúsculo mais b-minúsculo admite a função geradora de momentos . função m-maiúsculo sub-escrito y-maiúsculo de t-minúsculo igual a e-minúsculo elevado a b-minúsculo vezes t-minúsculo. Vezes a função m-maiúsculo de a-minúsculo vezes t-minúsculo Assim, é uma variável aleatória com distribuição normal[23] de média e variância .

Distribuição normal geral[editar | editar código-fonte]

Definição[editar | editar código-fonte]

Mais geralmente que a distribuição normal padrão, a distribuição normal não centrada e não reduzida é a distribuição de probabilidade absolutamente contínua, na qual um dos quatros pontos seguintes podem ser verificados.

  • A densidade de probabilidade é dada pela função função f-minúsculo com domínio no conjunto dos números reais r-maiúsculo e contra-dominio o conjunto dos números positivos reais r-maiúsculo definida por[24] função f-minúsculo de t-miníusculo igual a razão do número um por sigma-minúsculo vezes a raiz quadrada de dois vezes pi-minúsculo vezes e-minúsculo elevado a menos a razão de um por dois vezes a razão de, abre parentesis, t-minúsculo menos mi-minúsculo, fecha parentesis, elevado a dois por sigma-minúsculo elevado a dois, para todo . t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo.
  • A função de distribuição (cumulativa) é dada pela função função f-maiúsculo com domínio no conjunto dos números reais r-maiúsculo e contra-dominio o conjunto dos números positivos reais r-maiúsculo definida por função f-maiúsculo de x-minúsculo igual a razão de sigma-minúsculo vezes a raiz quadrada de dois vezes pi-minúsculo vezes integral definida de manos infinitos até x-minúsculo de e-elevado a menos a arzão de um por dois vezes a razão de, abre parentesis, t-minúsculo menos mi-minúsculo, fecha parentesis, elevado a dois por sigma-minúsculo elevado a dois , para todo . t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo.
  • A função característica é dada por função phi-minúsculo com domínio o conjunto dos números reais e contra-domínio o conjunto dos números complexos definida por[19] função phi-minúsculo de t-minúsculo igual a e-mainúsculo elevado a mi-minúsculo vezes i-minúscul vezes t-minúsculo menos a razão de um por dois vezes sigma-minúsculo elevado a dois vezes t-minúsculo elevado a dois, para todo . t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo.
  • A função geradora de momentos é dada por função phi-minúsculo com domínio no conjunto dos números reais r-maiúsculo e contra-domínio no conjunto dos números positivos reais r-maiúsculo definida por[25] função m-maiúsculo de t-minúsculo igual a e-mainúsculo elevado a mi-minúsculo vezes t-minúsculo mais a razão de um por dois vezes sigma-minúsculo elevado a dois vezes t-minúsculo elevado a dois, para todo t-minúsculo pertencente ao conjunto dos números reais r-maiúsculo. ou mi-minúsculo pertencente ao conjunto dos números reais r-maiúsculo. e . sigma-minúsculo pertencente ao conjunto dos números reais r-maiúsculo.

Para , as funções de densidade e de distribuição não são definidas. Este caso corresponde a um comportamento degenerado da distribuição normal, às vezes chamada de distribuição normal imprópria.[19] Isto é a medida de Dirac no ponto .

O valor é a média da distribuição, é o desvio padrão e é a variância. Esta distribuição é denotada pela , uma variável aleatória que segue a distribuição normal com a média e variância é denotada como a variável aleatória x-maiúsculo se aproxima da função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis.

Observações[editar | editar código-fonte]

    • Se a variável aleatória segue uma distribuição normal padrão , função n-maiúsculo de, abre parentesis, zero vírgula um, fecha parentesis. então a variável aleatória sigma-minúsculo vezes x-miaúsculo mais mi-minúsculo segue uma distribuição normal função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis. de média e de variância . Reciprocamente, se segue uma distribuição normal função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis., então razão de y-maiúsculo menos mi-minúsculo por sigma-minúsculo segue uma distribuição centrada reduzida.[26] Em outras palavras, toda distribuição normal pode ser obtida pela translação e pela dilatação de uma distribuição centrada reduzida. Esta primeira propriedade permite obter a fórmula[27] . função de probabilidade p-maiúsculo de y-maiúsculo menor ou igual a x-minúsculo. Igual a função de probabilidade p-maiúsculo de, razão de y-maiúsculo menos mi-minúsculo por sigma-minúsculo menor ou igual a razão de x-minúsculo menos mi-minúsculo por sigma-minúsculo Então, é possível deduzir as propriedades da distribuição normal a partir da distribuição normal centrada reduzida e vice–versa. A variável razão de y-maiúsculo menos mi-minúsculo por sigma-minúsculo às vezes[28] é chamada de padronização de ou de variável centrada reduzida.
    • A densidade é simétrica em relação à .[29]
    • O máximo da função é atingido em , com valor[29] . razão do número um por sigma-minúsculo vezes raiz quadrada de dois por pi-minúsculo.
    • Desde que a distribuição normal seja uma distribuição de probabilidade absolutamente contínua, o evento é insifgnificante. Isto é, quase certamente uma variável aleatória com distribuição normal nunca é igual a um valor fixo . Isto é expresso matematicamente por . função de probabilidade p-maiúsculo de x-maiúsculo igual a x-minúsculo igual a zero.
    • A largura à meia altura (largura da curva à metade da altura total) fornece um valor da amplitude da distribuição. Esta largura à meia altura da distribuição normal é proporcional ao desvio padrão[30] . h-maiúsculo igual a dois vezes raiz quadrada de dois vezes a função logarítmica neperiana de dois vezes sigma-minúsculo é aproximadamente dois, vírgula três cinco quatro oito vezes sigma-minúsculo O fator 2 vem da propriedade de simetria da distribuição normal.
    • A densidade tem[9] dois pontos de inflexão, em mi-minúsculo mais sigma-minúsculo e em mi-minúsculo menos sigma-maiúsculo. Eles são os pontos, nos quais a segunda derivada f-minúsculo elevado a dois apóstrofos anula–se e muda de sinal. Os dois pontos situam–se aproximadamente três quintos da altura total.
    • A distribuição normal é uma distribuição da família exponencial. Isto é, a sua densidade é escrita como a função f-minúsculo de x-minúsculo igual a função a-minúsculo de teta-minúsculo vezes a função b-minúsculo de x-minúsculo vezes e-minúsculo elevado a menos a função c-minúsculo de teta-minúsculo vezes a função d-minúsculo de x-minúsculo ou como[31] , função f-minúsculo de x-minúsculo igual a função exponencial EXP de, abre parentesis, razão de x-minúsculo vezes teta-um-minúsculo menos a função beta-minúsculo de teta-um-minúsculo pela função alpha-minúsculo de teta-dois-minúsculo, fecha parentesis. com teta-um-minúsculo igual a mi-miúsculo, teta-dois-minúsculo igual a sigma-minúsculo, função beta-minúsculo de mi-minúsculo igual a razão de mi-minúsculo elevado a dois por dois e função alpha-minúsculo de sigma-minúsculo igual sigma-minúsculo elevado a dois.

Propriedades[editar | editar código-fonte]

Outras caracterizações[editar | editar código-fonte]

Em adição à densidade de probabilidade, à função de distribuição, à função característica e à função geradora de momentos, existem outras caracterizações da distribuição normal.

    • Caracterização segundo Georges Darmois e Sergeï Bernstein[2] – se duas variáveis aleatórias e são independentes e igualmente distribuídas e se duas variáveis aleatórias e também são independentes, então a distribuição comum e é a distribuição normal.
    • Caracterização segundo Charles Stein[9] – a distribuição normal é a única distribuição de probabilidade (medida de probabilidade) tal qual, para qualquer função de classe C¹ (derivável ou derivada contínua), integral indefinida dentro do conjunto dos números reais r-maiúsculo da função derivada g-minúsculo elevado apostrofo de x-minúsculo vezes diferencial d-minúsculo da função probabilidade p-maiúsculo de x-minúsculo. Igual a integral indefinida dentro do conjunto dos números reais r-maiúsculo de x-minúsculo vezes a função g-minúsculo de x-minúsculo vezes a diferencial d-minúsculo da função probabilidade p-maiúsculo de x-minúsculo.

Momentos[editar | editar código-fonte]

O momento de ordem 1 é chamado média () e é dado como parâmetro da distribuição normal . função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis. O segundo parâmetro é o desvio padrão (). Isto é, a raiz quadrada da variância , que é, por definição, a média dos quadrados dos desvios da média, ou segundo momento central. Os momentos centrais da distribuição normal são dados por[23], mi-minúsculo sub-escrito dois vezes k-minúsculo. Igual a esperança e-maiúsculo de, abre parentesis, x-maiúsculo menos mi-minúsculo, fecha parentesis, elevado a dois vezes k-minúsculo. Igual a razão de fatorial do produto entre dois e k-minúsculo por dois elevado k-minúsculo vezes fatorial de k-minúsculo. Vezes sigma-minúsculo elevado a dois vezes k-minúsculo. E, mi-minúsculo sub-escrito dois vezes k-minúsculo mais o número um. Igual a esperança de, abre aperentesis, x-maiúsculo menos mi-minúsculo, fecha parêntesis, elevado a dois vezes k-minúsculo mais o número um. Igual a zero.

para e uma variável aleatória com distribuição normal função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis. O momento central de ordem pode ser obtido a partir de uma função de momentos de ordem inferior à e o momento de ordem pode ser obtido a partir de momentos de ordem inferior à – 1 e do momento central de ordem . Então, os primeiros momentos da distribuição normal são[32]:

. I. m-um-minúsculo igual a esperança e-maiúsculo de x-maiúsculo igual a mi-minúsculo. II. m-dois-minúsculo igual a esperança e-maiúsculo de x-maiúsculo elevado a dois igual a sigma-minúsculo elevado a dois mais mi-minúsculo elevado a dois. III. m-três-minúsculo igual a esperança e-maiúsculo de x-maiúsculo elevado a três. Igual a três vezes mi-minúsculo vezes a sigma-minúsculo elevado a dois mais mi-minúsculo elevado a três.

Cálculo[editar | editar código-fonte]

Com a simetria em torno de da função densidade da distribuição normal, os momentos centrais de ordem ímpar são todos zero.[33] Os momentos de ordem par da distribuição normal padrão função n-maiúsculo de, abre parentesis, zero vírgula um, fecha parentesis. pode ser obtido pela relação de recorrência m-minúsculo sub-escrito dois vezes k-minúsculo igual a, abre parentesis, dois vezes k-minúsculo menos o número um, fecha parentesis, m-minúsculo sub-escrito dois vezes k-minúsculo menos dois, que vem da integração por partes seguinte, para , k-minúsculo maior ou igual ao número um m-minúsculo sub-escrito dois vezes k-minúsculo. Igual a integral definida de manos infinito até mais infinito de t-minúsculo elevado a dois vezes k-minúsculo menos um. Vezes t-mainúsculo, vezes a função phi-minúsculo de t-minúsculo vezes diferencial d-minúsculo da variável t-minúsculo. Igual...

...igual a menos a integral definida de manos infinito até mais infinito de t-minúsculo elevado a dois vezes k-minúsculo menos o número um. Vezes a função derivada phi-minúsculo de t-minúsculo vezes a diferencial d-minúsculo da variável t-minúsculo. Igual...

... igual a, abre aprentesis, dois vezes k-minúsculo menos op número um, fecha parentesis, vezes a integral definida de menos infinito até mais infinito de t-minúsculo elevado a dois vezes k-minúsculo menos dois. Vezes, função phi-minúsculo de t-minúsculo vezes a diferencial d-minúsculo da variável t-mainúsculo.

É deduzida a fórmula dos momentos centrais reduzidos[14] , m-minúsculo sub-escrito dois vezes k-minúsculo. Igual a, abre parentesis, dois k-minúsculo menos o número um, reticência, vezes três vezes o número um. Igual a razão de fatorial dois vezes k-minúsculo por dois elevado a k-minúsculo vezes fatorial k-minúsculo assim a fórmula dos momentos centrais . mi-minúsculo sub-escrito dois vezes k-minúsculo igual a razão de fatorial de dois vezes k-minúsculo por dois elevado a k-minúsculo vezes fatorial de k-minúsculo. Vezes, sigma elevado a dois vezes k-minúsculo.

Função geradora de momentos[editar | editar código-fonte]

Os momentos centrais abre parentesis, n-ésimo mi-minúsculo sub-escrito n-minúsculo, vírgula, n-minúsuclo maios ou igual a zero, fecha parentesis. de uma distribuição podem ser obtidos a partir da função geradora de momentos centrados. Para a distribuição função de distribuição normal n-maiúsco de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis, a mudança da variável y-minúsculo igual a x-minúsculo menos mi-minúsculo permite obter as fórmulas[23]

a função m-maiúsculo sub-escrito c-minúsculo de t-minúsculo. Igual a e-minúsculo elevado a razão de sigma-minúsculo elevado a dois vezes t-minúsculo elevado a dois por dois. Igual a somatória sigma-maiúsculo com início em k-minúsculo igual a zero até mais infinito da razão do número um por fatorial k-minúsculo, abre parêntesis, razão de sigma-minúsculo elevado a dois vezes t-minúsculo elevado a dois por dois, fecha parêntesis, elevado a k-minúsculo.

de uma parte e a função m-maiúsculo sub-escrito c-minúsculo de t-minúsculo. Igual a somatória sigma-maiúsculo com início em n-minúsculo igual a zero até mais infinito da razão do número um por fatorial n-minúsculo, vezes o n-ésimo mi-minúsculo sub-escrito n-minúsculo vezes t-minúsculo elevado a n-minúsculo.

de outra parte. Para a identificação dos coeficientes das duas séries, isto implica que os momentos de ordem ímpar são zero mi-minúsculo sub-escrito dois vezes k-minúsculo mais o número um igual a zero e fornece uma fórmula para os momentos de ordem par

mi-minúsculo sub-escrito dois vezes k-minúsculo. Igual a razão de fatorial de dois vezes k-minúsculo por dois elevado a k-minúsculo vezes fatorial k-minúsculo.

Assimetria e curtosis[editar | editar código-fonte]

Densidades de probabilidade de distribuições com curtoses diferentes. Em vermelho, a distribuição de Laplace. Em laranja, a distribuição secante hiperbólica. Em verde, a distribuição logística. Em preto, a distribuição normal. Em cinza, a loi du cosinus surélevé. Em azul, a loi du demi-cercle. Em violeta, a distribuição uniforme.

A assimetria , a curtose e a curtose normalizada são obtidas a partir das fórmulas dos momentos[34] . I. gama-um-minúsculo. Igual a razão mi-três -minúsculo por sigma-minúsculo elevado a três. Igual a zero. II. beta-dois-minúsculo igual a razão mi-quatro-minúsculo por sigma-minúsculo elevado a quatro. Igual a três. III. gama-dois-minúsculo. Igual a beta-dois-minúsculo menos três igual a zero.

A distribuição normal é um ponto de referência para comparação das espessuras de caudas longas. Se uma distribuição possui uma curtose normalizada gama-dois-minúsculo maior do que zero, então a distribuição possui uma cauda longa mais grossa que a distribuição normal e é chamada leptocúrtica. Se gama-dois-minúsculo menor do que zero , a distribuição possui uma cauda longa mais fina que a distribuição normal e é chamada platicúrtica. Se a distribuição possui uma com curtose normalizada nula, então a distribuição possui uma cauda longa comparável à distribuição normal e é chamada mesocúrtica.

Cumulantes

A função característica permite obter a função geradora de cumulantes pela fórmula função composta logarítmica neperiana da função phi-minúsculo de t-minúsculo. Igual a somatória sigma-maiúsculo com início em n-mnúsculo igual ao número um até mais infinito do n-ésimo k-maiúsculo sub-escrito n-minúsculo vezes a razão de, abre parêntesis, i-minúsculo vezes t-minúsculo, fecha parêntesis,. elevado a n-minúsculo por fatorial n-minúsculo e permite obter os cumulantes[35] , e , para .

Quando o número de variáveis aumenta, a densidade de probabilidade da variável (centrada reduzida) aproxima–se da curva em sino da distribuição normal.

Teoremas da convergência[editar | editar código-fonte]

A primeira versão do teorema central do limite (teorema de Moivre–Laplace) foi estabelecido para as variáveis aleatórias da distribuição de Bernoulli. De maneira mais geral, se são variáveis aleatórias independentes e identicamente distribuídas com variância finita e se a soma é denotada como , então[15] limite de quando n-minúsculo teve ao mais infinito da função de probabilidade p-maiúsculo de, abre parentesis, a-minúsculo menor ou igual a razão de n-ésimo s-maiúsculo sub-escrito n-minúsculo menos a esperança de n-ésimo s-maiúsculo sub-escrito n-minúsculo pela raiz quadrada da variância de n-ésimo s-maiúsculo sub-escrito n-minúsculo. Menor sou igual a b-minúsculo. Igual a integral definida de a-minúsculo até b-minúsculo da função phi-minúsculo de x-minúsculo vezes diferencial d-minúsculo da variável x-minúsculo.

, para todo , em que é a densidade de probabilidade da distribuição normal padrão.

Este teorema significa que tudo que pode ser considerado a soma de um grande número de pequenos valores aleatórios independentes aproxima–se de uma distribuição normal.[36] Isto mostra a característica central da distribuição normal, em teoria da probabilidade. Um enunciado do teorema pode ser formulada como[37]: se uma grandeza física submetida à influência de um número importante de fatores independentes e se a influência de cada fator separadamente é pequena, então a distribuição desta grandeza é uma distribuição gaussiana.

O teorema central do limite é válido para toda distribuição de probabilidade com variáveis independentes e identicamente distribuídas i-ésimo x-maiúsculo sub-escrito i-minúsculo quando i-minúsculo varia de um até n que, com desvio padrão finito, permite obter uma boa aproximação da soma n-ésimo s-maiúsculo sub-escrito n-minúsculo. Por exemplo[38],

  • se as variáveis seguem a distribuição de Bernoulli função b-maiúsculo de p-minúsculo, então n-ésimo s-maiúsculo sub-escrito n-minúsculo segue aproximadamente uma distribuição normal .n-maiúsculo, abre parentesis, n-minúsculo vezes p-minúsculo, vírgula, n-minúsculo vezes p-minúsculo vezes, abre parêntesis, um menos p-minúsculo. fecha parentesis. Fecha parentesis. Esta aproximação é satisfatória quando ; n-minúsculo vezes p-minúsculo vezes, abre parêntesis, um menos p-minúsculo. fecha parentesis. maior do que dez.
  • se as variáveis i-ésimo x-maiúsculo sub-escrito i-minúsculo seguem a distribuição qui–quadrado com um graus de liberdade x-maiúsculo elevado a dois de um, então n-ésimo s-maiúsculo sub-escrito n-minúsculo segue aproximadamente uma distribuição normal função n-maiúsculo de, abre parêntesis, n-minúsculo vírgula dois vezes n-minúsculo, fecha parentesis.;
  • se as variáveis i-ésimo x-maiúsculo sub-escrito i-minúsculo seguem a distribuição exponencial e-maiúsculo de lambda-minúsculo, então n-ésimo s-maiúsculo sub-escrito n-minúsculo segue aproximadamente uma distribuição normal .função n-maiúsculo de, abre parentesis, razão de n-minúsculo por lambda-minúsculo vírgula razão de n-minúsculo por lambda-minúsculo elevado a dois, fecha parentesis.

Existe versões mais gerais deste teorema. Por exemplo, variáveis aleatórias independentes não são da mesma distribuição, mas com pequenas variâncias em relação às suas médias.[39] Um teorema de Gnedenko e Kolmogorov (1954) estipula que uma variável aleatória normal é a soma de um grande número de variáveis aleatórias indenpendentes pequenas , sendo que nenhuma delas é predominante.

Teorema: Seja uma série de variáveis aleatórias ,n-ésimo x-maiúsculo sub-escrito n-minúsculko, quando n-minúsculo é maior ou igual ao número um sendo que cada uma é a soma de um número finito de variáveis aleatórias x-maiúsculo sub-escrito n-minúsculo vírgula o número um, reticências, x-maiúsculo sub-escrito n-minúsculo vírgula n-ésimo k-minúsculo sub-escrito n-minúsculo com . n-ésimo k-minúsculo sub-escrito n-minúsculo tende a mais infinito Para todo , épsilon-minúsculo maior do que zero introduz–se a variável aleatória truncada x-maiúsculo elevado a épsilon-minúsculo igual a x-maiúsculo se o módulo de x-maiúsculo for menor ou igual a épsilon-minúsculo ou zero em caso contrário e supõe–se

  1. (em probabilidade) . somatória sigma-maiúsculo do número um menor ou igual a k-minúsculo menor ou igual a n-minúsculo de módulo de x-maiúsculo sub-escrito n-minúculo vezes k-minúsculo, tende a zero em probabilidade quando n-minúsculo tende ao infinito
  2. Para todo , somatória sigma-maiúsculo do número um menor ou igual a k-minúsculo menor ou igual a n-minúsculo da esperança e-maiúsculo de x-maiúsculo elevado a epsilon-minúsculo sub-escrito n-minúsculo vezes k-minúsculo tende a mi-minúsculo quando n-minúsculo tende ao infinito.
  3. e . somatória sigma-maiúsculo do número um menor ou igual a k-minúsculo menor ou igual a n-minúsculo da variância VAR de x-maiúsculo elevado a epsilon-minúsculo sub-escrito n-minúsculo vezes k-minúsculo tende a sigma-minúsculo elevado a dois quando n-minúsculo tende ao infinito.

Então, a distribuição de converge para a distribuição normal . distribuição normal n-maiúsculo de,abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis.

Estabilidade e família normal[editar | editar código-fonte]

Estabilidade pela adição (propriedade de conservação[2])

A distribuição normal é estável pela adição. Isto é, a soma de duas variáveis aleatórias independentes com distribuição normal é em si uma variável aleatória com distribuição normal. Mais explicitamente, se

, x-um-maiúsculo se aproxima da distribuição normal n-maiúsculo de,abre parentesis, mi-um-minúsculo, vírgula, sigma-um-minúsculo elevado a dois, fecha parentesis.

x-dois-maiúsculo se aproxima da distribuição normal n-maiúsculo de,abre parentesis, mi-dois-minúsculo, vírgula, sigma-dois-minúsculo elevado a dois, fecha parentesis.

e e x-um-maiúsculo e x-dois-maiúsculo

são independentes, então a variável aleatória x-um-maiúsculo mais x-dois-maiúsculo segue a distribuição normal . 'distribuição normal n-maiúsculo de,abre parentesis, mi-um-minúsculo mais mi-dois-minúsculo, vírgula, sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois, fecha parentesis.'

Esta propriedade é generalizada por variáveis. isto é, se para todo as variáveis aleatórias seguem a distribuição normal 'distribuição normal n-maiúsculo de,abre parentesis, i-ésimo mi-minúsculo sub-escrito i-minúsculo, vírgula, i-ésimo sigma-minúsculo sub-escrito i-minúsculo elevado a dois, fecha parentesis.'e são independentes, então[40] a soma x-um-maiúsculo mais x-dois-maiúsculo mais reticências mais n-ésimo x-maiúsculo sub-escrito n-minúsculo segue a distribuição normal . 'distribuição normal n-maiúsculo de,abre parentesis, mi-um-minúsculo mais mi-dois-minúsculo mais reticências mais n-ésimo mi-minúsculo sub-escrito n-minúsculo, vírgula, sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois mais reticências mais n-ésimo sigma-minúsculo sub-escrito n-minúsculo elevado a dois, fecha parentesis.'

Esta propriedade é demonstrada diretamente por meio de funções características. A densidade de probabilidade da soma de duas variáveis aleatórias independentes da distribuição normal é dada pela convolução de duas densidades. Isto é traduzido pelas fórmulas de convolução de funções: , função phi-minúsculo da razão de x-minúsculo menos mi-um-minúsculo por sigma-um-minúsculo vezes a função phi-minúsculo da razão de x-minúsculo menos mi-dois-minúsculo por sigma-dois-minúsculo. Igual a função phi-minúsculo da razão de x-minúsculo menos mi-um-minúsculo meais mi-dois-minúsculo pela raiz quadrada de sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois.

ou de convolução de medidas normais denotadas como : . distribuição normal n-maiúsculo sub-escrito mi-minúsculo vírgula sigma-minúsculo elevado a dois. Dois pontos. distribuição normal n-maiúsculo sub-escrito mi-um-minúsculo vírgula sigma-um-minúsculo elevado a dois vezes distribuição normal n-maiúsculo sub-escrito mi-dois-minúsculo vírgula sigma-dois-minúsculo elevado a dois. Igual a distribuição normal n-maiúsculo sub-escrito mi-um-minúsculo mais mi-dois-minúsculo vírgula sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois Não deve ser confundida com a distribuição, cuja densidade é a soma das densidades da distribuição normal.

Diferentes densidades de probabilidade de distribuições estáveis, em que a distribuição normal é um caso particular – a curva preta é a curva em sino.

Família normal[editar | editar código-fonte]

O conjunto de funções abre chaves, função phi-minúsculo da razão de x-minúsculo menos mi-minúsculo por sigma-minúsculo, ponto e vírgula, mi-minúsuclo pertence ao conjunto dos números reais, vírgula, sigma-minúsculo maior do que zero. Fecha chaves. forma a chamada família normal. A família normal também é o nome do conjunto de distribuições normais[41] . abre chaves. distribuição normal n-maiúsculo sub-escrito mi-minúsculo vírgula sigma-minúsculo elevado a dois, ponto e vírgula, mi-minúsculo pertencente ao conjunto dos números reais, vírgula, sigma-minúsculo maior do que zero. Fecha chaves. A família de funções está fechada para convolução no sentido que a função gera a família. Se a convolução de duas densidades pertence à família, então as duas funções pertencem à família. Toda densidade que convolui um número suficientemente grande de vezes e adequadamente renormalizada está próxima de uma função de uma família normal. Os seguintes teoremas dão mais detalhes matemáticos:

  • Se para uma função de densidade de média 0 e desvio padrão 1, e quaisquer mi-um-minúsculo vírgula mi-dois-minúsculo ambos pertencentes ao conjunto dos números reais e sigma-um-minúsculo vírgula sigma-dois-minúsculo ambos pertencentes ao conjunto dos números positivos reais com exceção do zero existe mi-minúsculo pertence ao conjunto dos números reais e sigma-minúsculo pertencente ao conjunto dos números positivos reais com a exceção do zero , satisfazendo , função f-minúsculo da razão de x-minúsculo menos mi-um-minúsculo por sigma-um-minúsculo vezes a função f-minúsculo da razão de x-minúsculo menos mi-dois-minúsculo por sigma-dois-minúsculo.Igual a função f-minúsculo da razão de x-minúsculo menos mi-um-minúsculo por sigma-um-minúsculoentão f-minúsculo é congruente a phi-minúsculo é a densidade da distribuição normal padrão.[42]
  • De acordo com o teorema de Lévy–Cramér (1936), conjecturado por Paul Lévy, em 1935[43][2], se duas funções de densidade e f-um-minúsculo e f-dois-minúsculo verificam função f-um-minúsculo de x-minúsculo vezes a função f-dois-minúsculo de x-minúsculo igual a função phi-minúsculo da razão x-minúsculo menos mi-minúsculo por sigma-minúsculo, então função f-um-minúsculo de x-minúsculo igual a phi-minúsculo da razão de x-minúsculo menos mi-um-minúsculo por sigma-um-minúsculo e função f-dois-minúsculo de x-minúsculo igual a phi-minúsculo de x-minúsculo menos mi-dois-minúsculo por sigma-dois-minúsculo com mi-um-minúsculo mais mi-dois-miníusculo igual a mi-minúsculo e . raiz quadrada de sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois. Igual a sigma-minúsculo Em outras palavras, se a soma de duas variáveis aleatórias independentes é normal, então as duas variáveis aleatórias seguem a distribuição normal.
  • Se é a densidade comum de variáveis aleatórias independentes de média 0 e desvio padrão 1, então a convolução vezes de converge uniformemente em : x-minúsculo, dois pontos. abre parentesis, função f-minúsculo da razão de x-minúsculo por raiz quadrada de n-minúsculo. Fecha parentesis. elevado a n-minúsculo. Tende a função phi-minúsculo de x-minúsculo (este teorema é equivalente ao teorema central do limite). Esta família normal não deve ser confundida com a família normal de funções holomorfas.

Estabilidade por linearidade[editar | editar código-fonte]

A distribuição normal é estável por linearidade. Se alpha-maior ou igual a zero e são reais e a variável aleatória x-maiúsculo se aproxima da função de distribuição normal n-maiúsco de, abre parentesis, mi-minúsculo, vírgula, sigma-minúsculo elevado a dois, fecha parentesis., então[44] a variável aleatória alpha vezes x-maiúsculo mais beta-minúsculo segue a distribuição normal . distribuição normal n-maiúsculo de, abre parentesis, alpha-minúsculo mais beta-minúsculo, vírgula alpha-minúsculo elevado a dois vezes sigma-minúsculo elevado a dois, fecha parentesis. Com a estabilidade por adição e por linearidade, a distribuição normal é um caso particular de distribuição estável[a 1] com parâmetro de estabilidade alpha-minúsculo igual a dois. Entre as distribuições estáveis, a distribuição normal, a distribuição de Lévy () alpha-minúsculo igual a razão um por dois e a distribuição de Cauchy () alpha-minúsculo igual a um são as únicas com expressão analítica para a função densidade.

Estabilidade pela média[editar | editar código-fonte]

A distribuição normal é estável pela média. Se x-um-maíusculo, x-dois-maiúsculo, reticências, n-ésimo x-maiúsculo sub-escrito n-minúsculo são variáveis aleatórias independentes seguindo as distribuições normais distribuição normal n-maiúsculo de, abre parentesis, mi-um-minúsculo, vírgula, sigma-um-minúsculo elevado a dois, fecha parentesis. Distribuição normal n-maiúsculo de, abre parentesis, mi-dois-minúsculo, vírgula, sigma-dois-minúsculo elevado a dois, fecha parentesis. Reticências. Distribuição normal do n-maiúsculo de, abre parentesis, n-ésimo mi-minúsculo sub-escrito n-minúsculo, vírgula, n-ésimo sigma-minúsculo sub-escrito n-minúsculo elevado a dois, fecha parentesis., então a média razão do número um por n-minúsculo vezes, abre parêntesis, x-um-maiúsculo mais x-dois-maiúsculo mais reticências mais n-ésimo x-maiúsculo sub-escrito n-minúsculo segue a distribuição distribuição normal n-maiúsculo de, abre parentesis, razão de, mi-um-minúsculo mais mi-dois-minúsculo mais reticências mais n-ésimo mi-minúsculo sub-escrito n-minúsculo por n-minúsculo, vírgula, razão de, sigma-um-minúsculo elevado a dois mais sigma-dois-minúsculo elevado a dois mais reticências mais n-ésimo sigma-minúsculo elevado a dois por n-minúsculo elevado a dois fecha parentesis.

Convexidade[editar | editar código-fonte]

A distribuição normal não é convexa.[45] Isto é, a desigualdade lambda-minúsculo vezes função probabilidade p-maiúsculo de a-maiúsculo maus abre paretensis o número um menos lambda-minúsculo vezes a função de probabilidade p-maiúsculo de b-maiúsuclo menor ou igual função de probabilidade p-maiúsculo de lambda vezes a-maiúsculo mais abre parentesis o número um menos lambda fecha parentesis vezes b-maiúsculo, para todo e borelianos, não é satisfeita quando a medida é normal. Entretanto, quando a desigualdade é normalizada com o inverso da função de distribuição da distribuição normal padrão, obtém–se o teorema (desigualdade de Ehrhard)

lambda-minúsculo vezes função phi-maiúsculo elevado a menos número um de, abre parentesis, função distribuição normal n-maiúsculo sub-escrito zero vírgula número um de a-maiúsculo mais, abre parentesis, número um menos lambda-minúsculo, fecha parentesis. vezes phi-maiúsculo elevado a menos número um. Vezes função distribuição normal n-maiúsculo sub-escrito zero vírgula número um de b-maiúsculo. Menor ou igual a...

Menor ou igual a... função phi-maiúsculo elevado a menos número um de, abre parentesis, função de distribuição normal n-maiúsculo sub-escrito zero vírgula número um de, abre parentesis, lambda vezes a-maiúsculo mais, abre parentesis número um menos lambda-minúsculo, fecha parentesis, vezes b-maiúsculo, fecha parentesis, fecha parentesis.

, para a medida padrão normal , função de distribuição normal n-maiúsculo sub-escrito zero vírgula número um todos os intervalos e e todo . lambda-minúsculo pertencente ao intervalo aberto de zero ao número um.

Entropia e quantidade de informação[editar | editar código-fonte]

Entropia de Shannon[editar | editar código-fonte]

A entropia de Shannon de uma distribuição de probabilidade absolutamente contínua de densidade dada por para medir a quantidade de informação é definida por h-maiúsculo igual a menos a integral definida de menos infinito até mais infinito da função f-minúsculo de x-minúsculo vezes a função logarítmica neperiana da função f-minúsculo de x-minúsculo vezes diferencial d-minúsculo de x-minúsculo No conjuntos das distribuições absolutamente contínuas de variância sigma-minúsculo elevado ao número dois fixa, as distribuições normais função n-maiúsculo, abre parêntesis, vírgula, sigma-minúsculo elevado a dois, fecha parentes. fornece entropia máxima.[46] A entropia para uma distribuição normal é dada por . h-maiúsculo igual a função logarítmica neperiana de sigma-minúsculo vezes raiz quadrada de dois vezes pi-minúsculo vezes e-minúsculo.

Há também uma ligação entre a convergência de sequências de distribuições de probabilidade com distribuição normal e o aumento da entropia, tornando–se uma ferramenta importante na teoria da informação.[2]

Quantidade de informação de Fisher[editar | editar código-fonte]

A informação de Fisher de uma densidade de probabilidade é outro conceito de quantidade de informação. Para uma densidade , a informação de Fisher é dada por i-maiúsculo igual a integral definida de menos infinito até mais infinito da, abre parentesis, razão de função derivada f-apostrofo-minúsculo de x-minúsculo pela função f-minúsculo de x-minúsculo, fecha parentesis, elevado a dois vezes função f-minúsculo de x-minúsculo vezes diferencial d-minúsculo de x-minúsculo Para toda densidade suficientemente regular de uma distribuição centrada reduzida, a informação satisfaz seguinte desigualdade: . A distribuição normal distingui–se de outras densidades desde que a desigualdade anterior seja uma igualdade e se e somente se a densidade for uma distribuição normal padrão.[2]

Distancia entre distribuições[editar | editar código-fonte]

A divergência de Kullback–Leibler permite medir a distância entre duas distribuições ou a perda de informação entre as duas distribuições. A divergência de Kullback–Leibler entre as duas distribuições normais função de distribuição normal n-maiúsco de, abre parentesis, mi-um-minúsculo, vírgula, sigma-um-minúsculo elevado a dois, fecha parentesis., e função de distribuição normal n-maiúsco de, abre parentesis, mi-dois-minúsculo, vírgula, sigma-dois-minúsculo elevado a dois, fecha parentesis.

.d-maiúsculo sub-escrito k-maiúsculo, l-maiúsculo, abre parêntesis, distribuição normal n-maiúsculo sub-escrito mi-um-minúsculo vírgula sigma-um-minúsculo elevado a dois. Dupla barra vertical com significa de OU. distribuição normal n-maiúsculo sub-escrito mi-dois-minúsculo vírgula sigma-dois-minúsculo elevado a dois. Igual a função logarítmica da razão de sigma-dois-minúsculo por sigma-um-minúsculo mais razão do número um por dois, vezes, abre parentesis, sigma-um-minúsculo elevado a dois por sigma-dois-minúsculo elevado a dois...

Esta divergência é nula para e , mas aumenta quando módulo de mi-um-minúsculo menos mi-dois-minúsculo também aumenta.[47]

Aproximação da função de distribuição[editar | editar código-fonte]

Não existe expressão analítica para a função de distribuição da distribuição normal padrão. Isto é, não existe uma fórmula simples entre a função de distribuição e as funções convencionais como as funções polinomiais, exponenciais, logarítmicas, trigonométricas, entre outras. Entretanto, a função de distribuição é aplicada a vários resultados e é importante compreende–la melhor. Diferentes notações como séries ou frações contínuas generalizadas são possíveis.[48]

Para , a função de distribuição da distribuição normal padrão é escrita na forma[30]

função phi-maiúsculo de x-minúsculo. Igual a razão do número um por dois mais a razão do número um pela raiz quadrada de dois vezes pi-minúsculo vezes a somatória sigma-maiúsculo com início em n-minúsculo igual a zero até o infinito da razão de menos o número um elevado a n-minúsculo por fatorial n-minúsculo vezes dois elevado a n-minúsculo vezes, abre parentesis, dois vezes n-minúsculi mais o número um, fecha parêntesis. Vezes x-minúsculo elevado a dois vezes n-minúsculo mais o número um. Igual...

...Igual a razão do número um por dois mais a razão do número um pela raiz quadrada de dois vezes pi-minúsculo, vezes, abre parentesis, x-minúsculo menos a razão x-minúsculo elevado a três por seis mais a razão de x-minúsculo elevado a cinco por quarenta mais reticências, fecha parentesis,

ou na forma

função phi-maiúsculo de x-minúsculo igual a arzão do número um por dois mais a função phi-minúsculo de x-minúsculo vezes a somatória sigma-maiúsculo com início em n-minúsculo igual a zero até o infinito da razão do número um elevado por o número um vezes 3 vezes 5 reticências vezes, abre parentesis, dois vezes n-minúsculi mais o número um, fecha parêntesis. Vezes x-minúsculo elevado a dois vezes n-minúsculo mais o número um. Igual...

...igual a razão do número um por dois mais a função phi-minúsculo de x-minúsculo vezes, abre parentesis, x-minúsculo menos a razão x-minúsculo elevado a três por três mais a razão de x-minúsculo elevado a cinco por quinze mais reticências, fecha parentesis.

Para , a função de distribuição da distribuição normal padrão é escrita na forma[48][30]

, função phi-maiúsculo de x-minúsculo. Igual ao número um menos a razão da função phi-minúsculo de x-minúsculo por x-minúsculo, vezes, abre parentesis, número um menos a razão do número um por x-minúsculo elevado a dois mais a razão do número um vezes três por x-minúsculo elevado a quatro menos o número um vezes três vezes cinco por x-minúsculo elevado a seis mais reticências mais a razão do número um vezes três reticências abre parentesis dois vezes n-minúsculo menos o número um por x-minúsculo elevado a dois vezes n-minúsculo.

com . n-ésimo r-maiúsculo sub-escriyop n-minúsculo. igual a menos o número um elevado a n-minúsculo mais o número um vezes o número um vezes três reticências abre parentesis, dois vezes n-minúsuclo mais o número um, fecha parentesis vezes a integral definida de x-minúsculm até o infinito da razão da função phi-minúsculo de y-minúsculo por y-minúsculo elevado a dois vezes n-minúsculo mais dois.

De maneira mais numérica e facilmente calculável, as aproximações seguintes fornecem valores da função de distribuição da distribuição normal padrão com:

  • Erro da ordem de[49] : para ,
  • ou . função phi-maiúsculo de x-minúsculo igual ao número um menos a razão de e-minúsculo eivado a menos a razão de x-minúsculo eivado a dois por dois pela raiz quadrada de dois vezes pi-minúsculo, abre parentesis, ..., fecha parentesis.
  • Erro de ordem de[49] : para ,
  • . função phi-maiúsculo de x-minúsculo é aproximadamente o número um menos a razão ... por ...
  • Erro da ordem de[30] :
  • . a função phi-maiúsculo de x-minúsculo é igual a. abre chavez ...

Em um exemplo de algoritmo[16] para a linguagem C, uma outra notação da função de distribuição da distribuição normal padrão utiliza uma fração contínua generalizada[16]: . a função phi de x-minúsculo vezes raiz quadrada de dois. Igual a ...

Tabelas numéricas e cálculos[editar | editar código-fonte]

Função quantil de uma distribuição normal padrão.

De acordo com a seção anterior, é útil saber a função de distribuição para aplicações numéricas. Então, tabelas de valores foram calculadas para a função de distribuição e também para o inverso da função de distribuição, que permitem obter os quantis e os intervalos de confiança para um limiar de tolerância fixo.

Tabela de valores da função de distribuição
A tabela seguinte fornece os valores da função de distribuição , quando segue a distribuição normal padrão.

Os valores da primeira linha fornecem a primeira parte da variável. Os valores da primeira coluna fornecem a segunda parte da variável. Então, a célula na segunda linha e na terceira coluna fornece .

Aire sous la courbe de la densité
A curva em sino é a função densidade. A linha vertical é o valor . A superfície da parte colorida sob a curva é o valor .
Aire sous la courbe de la densité
A curva em sino é a função densidade. As linhas verticais são os valores e . A superfície da parte colorida sob a curva é o valor .
Aire sous la courbe de la densité
A curva em sino é a função densidade. A linha vertical é o valor . A superfície da parte colorida sob a curva é o valor .
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99992 0,99992 0,99992 0,99992 0,99992
3,8 0,99993 0,99993 0,99993 0,99994 0,99994 0,99994 0,99994 0,99995 0,99995 0,99995
3,9 0,99995 0,99995 0,99996 0,99996 0,99996 0,99996 0,99996 0,99996 0,99997 0,99997
Tabela de valores dos quantis
As duas tabelas seguintes fornecem[50] os valores dos quantis da distribuição normal padrão , definida por .

Os valores da primeira linha fornecem a primeira parte da variável. Os valores da primeira coluna fornecem a segunda parte da variável. Então, a célula na segunda linha e na terceira coluna fornece .

0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,50 0,0000 0,0251 0,0502 0,0753 0,1004 0,1257 0,1510 0,1764 0,2019 0,2275
0,60 0,2533 0,2793 0,3055 0,3319 0,3585 0,3853 0,4125 0,4399 0,4677 0,4959
0,70 0,5244 0,5534 0,5828 0,6128 0,6433 0,6745 0,7063 0,7388 0,7722 0,8064
0,80 0,8416 0,8779 0,9154 0,9542 0,9945 1,036 1,080 1,126 1,175 1,227
0,90 1,282 1,341 1,405 1,476 1,555 1,645 1,751 1,881 2,054 2,326

Esta tabela fornece os valores dos quantis para os valores maiores de .

p 0,975 0,995 0,999 0,9995 0,9999 0,99995 0,99999 0,999995
1,9600 2,5758 3,0902 3,2905 3,7190 3,8906 4,2649 4,4172

As tabelas são dadas pelos valores positivos da distribuição normal padrão. Com a formulação da função de distribuição, é possível obter outros valores. Os valores negativos da função de distribuição são dados pela fórmula[8] . Por exemplo, , para .

Os valores da função de distribuição da distribuição geral é obtido pela fórmula[51] . Por exemplo[52], , para .

A tabela de valores também permite obter a probabilidade de uma variável aleatória com distribuição normal pertencer a um intervalo pela fórmula . Por exemplo, , para , e , para .

Intervalos normais e intervalos de confiança[editar | editar código-fonte]

Uma das vantagens para calcular probabilidades de intervalos é a utilização de intervalos de confiança para testes estatísticos. A distribuição normal é definida para dois valores, a média e o desvio padrão . É útil olhar para os intervalos[53] do tipo . para

Tabela de valores dos intervalos de confiança
A curva em sino é a densidade de probabilidade. As superfícies das partes coloridas sobre a curva correspondem às probabilidades dos intervalos .

A tabela seguinte é obtida a partir das tabelas anteriores[54] e fornecem as probabilidades para

r 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5
0,00 0,3829 0,6827 0,8664 0,9545 0,9876 0,9973 0,9995
Representação de um gráfico de caixa e a ligação com os quantis de uma distribuição normal.

A tabela de valores dos valores de confiança permite obter os intervalos de normalidade para um determinado nível de confiança. Para , a tabela fornece:[55]

  • , em que é o intervalo de normalidade para o nível de confiança de 68%.
  • , em que é o intervalo de normalidade para o nível de confiança de 76% e é a largura à meia altura.
  • , em que é o intervalo de normalidade para o nível de confiança de 95%.
  • , em que é o intervalo de normalidade para o nível de confiança de 99%.

Inversamente, quando o valor da probabilidade é fixo, existe[17] um único valor , tal que . O intervalo é chamado de intervalo de normalidade ou intervalo de confiança para o nível de confiança . Para uma distribuição normal e um limiar , o método para encontrar o valor de consiste[56] em utilizar a tabela de valores dos quantis, tal que . Então, o intervalo de confiança é .

Por exemplo, o intervalo de normalidade para o nível de confiança de 95% de uma distribuição normal é o intervalo , em que verifica ou . Então, o intervalo de confiança é após o arredondamento.

Ligações com outra distribuições[editar | editar código-fonte]

Com papel central entre as distribuições de probabilidade e suas aplicações, a distribuição normal tem muitas ligações com outras distribuições. Certas distribuições ainda são formadas a partir da distribuição normal para melhor corresponder às suas aplicações.

Distribuições usuais[editar | editar código-fonte]

Diferentes distribuições qui e qui–quadrado
Distribuição em função de variáveis com distribuição normal
Distribuição qui–quadrado
Distribuição qui–quadrado não central
Distribuição qui
Distribuição qui não central

Distribuições unidimensionais[editar | editar código-fonte]

  • Se uma variável aleatória segue uma distribuição normal , então[57] a variável aleatória segue uma distribuição log–normal.
  • Se e são duas variáveis aleatórias independentes com distribuição uniforme , então as duas variáveis aleatórias e são distribuições normais padrões.[51] e são independentes. Estas duas fórmulas são utilizadas para simular a distribuição normal.
  • Se as variáveis são independentes com distribuição comum , então[58] a soma dos seus quadrados segue uma distribuição qui–quadrado com grais de liberdade . A formula estende–se para variáveis normal não centradas e não reduzidas. O mesmo tipo de ligação existe com a distribuição qui–quadrado não central, a distribuição qui e a distribuição qui não central.
  • Se a variável segue uma distribuição normal padrão , se segue uma distribuição qui–quadrado com grais de liberdade e se e são independentes, então[59] a variável segue uma distribuição de Student com grais de liberdade.
  • Se é uma variável aleatória com distribuição normal padrão e é uma variável aleatória com distribuição uniforme em , então é uma distribuição de Slash.[60]
  • Para uma variável aleatória com distribuição normal padrão , a variável é um distribuição normal com potência . Para , esta variável é uma distribuição normal padrão.[60]
  • Se e são duas variáveis aleatórias independentes com distribuição normal padrão, então[61] o quociente segue a distribuição de Cauchy de parâmetro 0 e 1, . No caso de e serem duas gaussianas quaisquer (não centradas e não reduzidas), o quociente segue uma distribuição complexa, em que a densidade é expressa em função dos polinômios de Hermite (a expressão exata é dada por Pham–Gia em 2006[62]).

Distribuições multidimensionais[editar | editar código-fonte]

  • Há uma versão multidimensional da distribuição normal, chamada distribuição normal multidimensional, distribuição multinormal ou distribuição de Gauss multivariada. Se são variáveis aleatórias com distribuições normais, então a distribuição de probabilidade do vetor aleatório é uma distribuição normal multidimensional. A densidade de probabilidade assume a mesma forma que a densidade da distribuição normal, porém escrita em forma de matriz. Se o vetor aleatório tem distribuição normal unidimensional , em que é o vetor das médias e é a matriz de variância–covariância, então a distribuição condicional de , sabendo que é a distribuição normal[63]  : se , então com e
  • A distribuição normal de um vetor, cujas coordenas são independentes e com distribuições normais padrão, é a distribuição de Rayleigh.[62]

Nota–se que a distribuição gaussiana inversa e a distribuição gaussiana inversa generalizada não têm ligação com uma fórmula simplesmente criada a partir de variáveis da distribuição normal, mas tem relação com o movimento browniano.

Distribuições normais generalizadas[editar | editar código-fonte]

Várias generalizações da distribuição normal foram introduzidas para mudar sua forma, sua assimetria, seu suporte etc.

Um novo parâmetro de forma foi introduzido à distribuição normal para obter uma distribuição normal generalizada. Esta família de distribuição contém a distribuição normal como é o caso para e também para a distribuição de Laplace para . A nova densidade de probabilidade é dada por[2] Existe uma maneira de mudar a assimetria da distribuição normal a fim de obter a chamada distribuição normal assimétrica (distribuição normal distorcida).[64] A introdução de um parâmetro permite obter a distribuição normal quando , uma assimetria à direita quando e uma assimetria à esquerda quando . A densidade desta distribuição é dada por .

Para mudar o suporte e, especialmente, para tornar a distribuição normal limitada, uma modificação possível é a distribuição truncada. Então, ela muda de escala para que as partes cortadas distribuam–se entre todos os valores guardados (ao contrário da distribuição dobrada). A distribuição normal padrão truncada em e em para suportar o intervalo e sua função densidade definida por[65]

Também é possível truncar a distribuição normal de um lado. Então, ela é chamada distribuição normal corrigida. Se uma variável aleatória segue uma distribuição normal , então segue a distribuição normal corrigida.[66]

Uma outra maneira de mudar o suporte da distribuição normal é dobrar a densidade a partir de uma valor, a distribuição obtida é a distribuição normal dobrada. Os valores retirados, por exemplo, são então distribuídos perto do valor da dobra, aqui, 0 (ao contrário da distribuição truncada). A densidade de probabilidade da distribuição normal dobrada em 0 é dada por[67]

Uma versão generalizada da distribuição log–normal permite obter uma família com distribuição, incluindo a distribuição normal como um caso particular.[68] A família é definida a partir de três parâmetros: um parâmetro de posição , um parâmetro de escala e um parâmetro de forma . Quando , esta distribuição log–normal generalizada é a distribuição normal. A densidade é dada por , em que .

Diferentes formas para a densidade da distribuição normal generalizada.
Diferentes formas para a densidade da distribuição normal assimétrica.
Distribuição normal padrão truncada em 1,5 para a curva vermelha e em 2,5 para a curva azul.
Em verde, a densidade da distribuição normal dobrada em 0.
Diferentes formas para a densidade da distribuição log–normal.
 

Construções a partir da distribuição normal[editar | editar código-fonte]

Misturando as distribuições[editar | editar código-fonte]

Em azul, a densidade de uma combinação linear de duas densidades normais.

Uma mistura gaussiana é uma distribuição de probabilidade, cuja densidade é definida por uma combinação linear de duas densidades de distribuições normais. Se nota–se a densidade de e a densidade de , então é a densidade de uma distribuição de probabilidade chamada de mistura gaussiana.[69]

Não se pode confundir a combinação linear de duas variáveis aleatórias independentes com distribuição normal, que continua a ser uma variável gaussiana, e a combinação linear de duas densidades, que permite obter uma distribuição que não é a distribuição normal.

Os modos das duas distribuições normais são dados por e , então a combinação gaussiana é uma distribuição bimodal. Se os máximos locais são valores próximos e não iguais[69] aos valores e .

Generalidades[editar | editar código-fonte]

É possível construir outras densidades de probabilidade com a densidade da distribuição normal padrão. Harald Cramér estabeleceu em 1926 um resultado geral: se uma densidade de probabilidade é duas vezes diferenciável, se a integral é convergente e se , então a função pode ser desenvolvida em uma série absolutamente e uniformemente convergente em função das derivadas das densidades da distribuição normal padrão e dos polinômios de Hermite

Utilizações[editar | editar código-fonte]

Historicamente a distribuição normal é introduzida em estudos sobre os corpos celestes ou em jogos de azar. Ela é estudada, generalizada matematicamente e usada em muitas aplicações em matemática, em outras ciências exatas, em outras ciências mais aplicadas ou em ciências humanas e sociais. Segue uma seleção de exemplos.

Balística[editar | editar código-fonte]

No século XIX, para melhorar a precisão da artilharia de fogo muitos tiros de canhão eram disparados. Observou–se que a direção e o alcance eram semelhantes às distribuições normais.[70] Esta compreensão permitiu melhor treinar os servos para ajustar os disparos. Esta distribuição normal proveniente de diferentes fatores como as condições climáticas e também o uso do equipamento militar. A dispersão dos pontos de impacto e, portanto, da distribuição, fornece informações sobre o estado do material e sobre o possível número de disparos anormais. O ajuste à distribuição normal é feito pelo teste de Lhoste em uma série de 200 tiros. O matemático Jules Haag aplica o método para 2680 tiros de diferentes escopos e diferentes direções.[70]

Quociente de inteligência[editar | editar código-fonte]

O quociente de inteligência (QI) visa dar um valor numérico à inteligência humana. Em 1939, David Wechsler deu uma definição estatística ao quociente de inteligência. 100 pontos são dados à média dos valores obtidos de uma população com idade similar e 15 pontos são deduzidos de um intervalo igual ao desvio padrão obtidos a partir dos valores da população testada.[71] Por esta razão, a curva de distribuição do QI é modelada a curva em sino da distribuição normal centrada em 100 e com desvio padrão 15, . Entretanto, este modelo é questionado por alguns cientistas. Em efeito, os resultados dos testes são dependentes das classes sociais da população, a população deixaria de ser homogênea. Isto é, a propriedade de independência dos indivíduos não seria verificada.[72] Então, o QI seria apenas uma medida de aproximação da inteligência humana com erro desconhecido.

Anatomia humana[editar | editar código-fonte]

Exemplo da curva de aumento de peso.

Uma característica observável e mensurável de uma população de indivíduos comparáveis muitas vezes tem uma frequência modelada por uma distribuição normal. É o exemplo da altura humana em uma determinada idade (separados entre homens e mulheres)[73] ou o tamanho do bico de uma população de aves como os pássaros estudados por Charles Darwin[74]. Mais precisamente, uma característica mensurável de uma população pode ser modelada por uma distribuição normal se ela for codificada geneticamente por vários alelos ou por vários locus[74] ou se a característica depende de um grande número de efeitos do meio ambiente.[75]

As curvas de crescimento apresentadas pela Organização Mundial da Saúde (OMS), presentes em cadernetas de saúde, por exemplo, são derivadas de modelagem pela distribuição normal. Por meio de um estudo detalhado dos percentis medidos em uma população com idade fixa e por meio de testes estatísticos de adequação, as distribuições dos pesos e das alturas por faixa etária foram modeladas por distribuições de probabilidade. Estas distribuições incluem a distribuição normal, a distribuição normal de Box–Cox (generalização da distribuição normal), a distribuição Student de Box–Cox (generalização da distribuição normal de Box–Cox) e ainda a distribuição exponencial com potência Box–Cox.[76] Graficamente, para cada idade ou para cada eixo vertical, a mediana é representada (linha central) e os dois valores de e , em que é o desvio padrão, dão as curvas e, assim, representam a evolução de um intervalo de confiança. 

Sinais e medições físicas[editar | editar código-fonte]

Um filtro gaussiano é aplicado à imagem de cima, obtendo–se uma imagem de fundo mais suave e com menos granulados.

Quando um sinal é transmitido, ocorre uma perda de informação devido aos meios de transmissão ou à decodificação do sinal. Quando uma medição física é efetuada, uma incerteza no resultado pode ser proveniente de uma imprecisão do aparelho de medida ou de uma incapacidade de obter o valor teórico. Um método para modelar tais fenômenos é considerar um modelo determinista (não aleatório) para o sinal ou para a medição e adicionar ou multiplicar um termo aleatório que represente a perturbação aleatória, às vezes chamadas de erro ou de ruído. Em muitos casos, este erro é assumido como distribuição normal ou como distribuição log–normal em casos de multiplicação.[77] É o caso, por exemplo, da transmissão de um sinal através de um cabo elétrico.[28] Quando o processo depende do tempo, o sinal ou a medição é modelada por um ruído branco.[78] Então, a suavização de imagem com um filtro gaussiano é utilizada.

Economia[editar | editar código-fonte]

Os preços de algumas commodities são determinadas por uma bolsa de valores, como é o caso do trigo, do algodão e do ouro. No tempo , o preço evolui até o momento , aumentando . Em 1900, Louis Bachelier postulou que este aumento segue uma distribuição normal de média nula, cuja variância depende de em . Entretanto, este modelo satisfaz apenas ao mercado financeiro. Então, outros matemáticos propuseram melhorar este modelo, assumindo que é o aumento que segue a distribuição normal[79], o que quer dizer que o aumento dos preços segue uma distribuição log–normal. Esta hipótese é a base do modelo e da fórmula de Black–Scholes utilizado massivamente pela indústria financeira.

Este modelo ainda foi melhorado por Benoît Mandelbrot especialmente, assumindo que o aumento segue uma distribuição estável (a distribuição normal é um caso particular da distribuição estável). Então, parece que o movimento browniano, cujo crescimento é uma distribuição normal, e o processo de Levy, cujo crescimento estável modela as curvas do mercado.[79]

Matemática[editar | editar código-fonte]

Ruído branco gaussiano unidimensional.

A distribuição normal é utilizada em muitas áreas da matemática. O ruído branco gaussiano é um processo estocástico de tal modo que em qualquer ponto o processo é uma variável aleatória com distribuição normal independente do processo de outros pontos.[80] O movimento browniano é um processo estocáticos, cujos aumentos são independentes, estacionários e com distribuição normal.[79] Incluindo um valor fixo, a variável aleatória segue a distribuição normal . Este processo aleatório tem muitas aplicações. Ele faz uma ligação entre a equação do calor e a distribuição normal.[9] Quando a extremidade de uma haste de metal é aquecida em um curto espaço de tempo, o calor se propaga ao longo da barra na forma de uma curva em sino.

A distribuição normal também é aplicada em áreas da matemática não aleatórias como na teoria dos números. Todo número inteiro pode ser escrito como a multiplicação de potências de números primos. Seja o número de números primos diferentes nesta decomposição. Por exemplo, para , . O teorema de Erdős–Kac assegura[9] que esta função para está relacionada com a densidade da distribuição normal . Isto é, para um grande número da ordem de , existe uma alta probabilidade que o número de divisores primos seja 3 para .

Testes e estimativas[editar | editar código-fonte]

Critérios de normalidade[editar | editar código-fonte]

Linha de Henry representada em um papel gaussiano–aritmético.

É importante saber se os valores são distribuídos de acordo com a distribuição normal. Quatro critérios podem ser estudados antes de realizar um teste estatístico.

O primeiro critério (o critério mais simples) consiste em traçar um diagrama em barras da distribuição e verificar visualmente se o diagrama é em forma de sino. Entretanto, este critério subjetivo permite eliminar uma parte das distribuições quando consideradas não gaussianas.

De maneira mais precisa, a utilização das faixas de normalidade permite comparar com as frequências observadas facilmente calculáveis. O critério consiste em utilizar as faixas de normalidade ou os intervalos de confiança. Quando os valores são normalmente distribuídos, 68% deles estão no intervalo , 95% deles estão no intervalo e 99,7% deles estão no intervalo .

Se não for o caso, a escolha de modelar a distribuição dos valores observados pela distribuição normal não é aconselhável.

O gráfico de probabilidade normal permite ajustar os valores observados com uma distribuição normal. Isto é, representando o gráfico de probabilidade normal, é possível fazer um diagnóstico sobre a natureza normal da distribuição e, se ela for susceptível a ser normal, é possível determinar a média e o desvio padrão. Os valores são observados e representados pela função de distribuição empírica . Elas são gaussianas se os pontos representados no papel gráfico gaussiano-aritmetico estão alinhados em uma reta chamada Henri.[81] Um papel gaussiano-aritmetico é formado por um eixo artimético das abscissa e é calculada pelo inverso da função de distribuição da distribuição normal centrada reduzida de ordem .[82]

Estes critérios são necessários, mas não são suficientes. Entretanto, não são suficientes para satisfazer o critério para afirmar que os valores são normalmente distribuídos.

Testes de normalidade[editar | editar código-fonte]

Com seu papel no teorema central do limite, a distribuição normal é encontrada em muitos dos testes estatísticos chamados gaussianos ou assintoticamente gaussianos. O pressuposto de normalidade é feito sobre uma distribuição a priori em um teste de aderência para indicar que esta distribuição segue aproximadamente uma distribuição normal.[70] Existem vários testes de normalidade.

  • O teste qui–quadrado de aderência para a distribuição normal permite testar se uma série de valores observados segue uma distribuição normal.[83] Neste tipo de teste, a hipótese nula é: distribuição observada pode ser aproximada pela distribuição normal. Tendo agrupado os valores observados, calcular as probabilidade de uma variável aleatória de distribuição normal pertencer a uma classe em estimativa dos parâmetros da distribuição devidos aos valores observados. Estas probabilidades podem ser obtidas com as tabelas numéricas da distribuição normal. Se a hipótese nula for verdadeira, a estatística qui–quadrado calculada a partir dos valores observados e das probabilidades anteriores seguem uma distribuição qui–quadrado. O número do grau de liberdade é se a média e o desvio padrão são conhecidos, se um dos dois parâmetros é desconhecido ou se os dois parâmetros são desconhecidos. A hipótese nula é rejeitada se a estatística qui–quadrado é superior ao valor obtido por meio da tabela do limiar da distribuição qui–quadrado .
  • O teste de Lilliefors é baseado na comparação entre a função de distribuição da distribuição normal e a função de distribuição empírica. É uma adaptação do teste de Kolmogorov–Smirnov. As opiniões sobre o poder do teste são divididas. Ele é eficiente em torno da média, mas nem tanto para a comparação das caudas de distribuição.[84] Os valores observados são dispostos em ordem crescente . Os valores são as frequências teóricas da distribuição normal centrada reduzida associada com os valores normalizados. Se a estatística for superior a um valor crítico calculado pelo limiar e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar .
  • O teste de Anderson–Darling é outra versão do teste de Kolmogorov–Smirnov mais adequada ao estudo das caudas de distribuição.[84] Usando a mesma notação que o teste de Lilliefors, se a estatística for superior a uma valor crítico calculado pelo limiar e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar .
  • O teste D'Agostino é baseado nos coeficientes de simetria e de curtose. É particularmente eficaz a partir de valores observados.[84] Embora a ideia do teste seja simples, as fórmulas são mais complicadas. A ideia é construir modificações dos coeficientes de simetria e de curtose para obter as variáveis e da distribuição normal padrão. Então, é realizado um teste qui–quadrado com estatística .
  • O teste Jarque–Bera também é baseado nos coeficientes de simetria e de curtose. O teste somente é interessante para um número elevado de valores observados.[84] Considerando os dois estimadores e , deve–se realizar um teste qui–quadrado com estatística .
  • O teste de Shapiro–Wilk proposto em 1965 é eficaz para pequenas amostras com menos de 50 valores.[84] Os valore observados são dispostos em ordem crescente e os coeficientes são calculados a partir do quantil, da média, da variância e da covariância de uma distribuição normal. Se a estatística for inferior a um valor crítico calculado pelo limiar e ao tamanho da amostra, então o pressuposto de normalidade é rejeitado no limiar .

Estimativa dos parâmetros[editar | editar código-fonte]

Quando um fenômeno aleatório é observado e considera–se que ele pode ser modelado por uma distribuição normal, uma das perguntas que podem ser feitas é quanto valem os parâmetros e da distribuição normal ? Então, é realizada uma estimativa. As observações coletadas durante a observação do fenômenos são notadas para as variáveis aleatórias . As notações da média aritmética e da média quadrada também são úteis[85]: e .

Estes dois valores são respectivamente estimadores da média e do desvio padrão que são calculados a partir dos valores observados. Como variáveis tem distribuição normal, então tem distribuição e tem distribuição qui–quadrado .[85]

Estimativa da média quando o desvio padrão é conhecido[editar | editar código-fonte]

Um método consiste em procurar um limiar de um intervalo de confiança em torno da média teórica . Usando os quantis de ordem e , a fórmula que define os quantis permite obter[85] .

Com os valores observados e as tabelas da distribuição normal padrão, então é possível fornecer os valores numéricos de intervalo de limiar .

Estimativa da média quando o desvio padrão não é conhecido[editar | editar código-fonte]

Um método consiste em usar uma variável intermediária que pode ser escrita com as novas variáveis aleatórias de distribuição : tem distribuição de Student . Usando os quantis de ordem e , a fórmula que define os quantis permite obter[86] .

Com os valores observados e as tabelas da distribuição normal padrão, então é possível fornecer os valores numéricos de intervalo para limiar .

Estimativa do desvio padrão quando a média é desconhecida[editar | editar código-fonte]

É o mesmo método que o anterior. A introdução da variável aleatória de distribuição qui–quadrado para grais de liberdade permite obter[87] , em que e são quantis de distribuição qui–quadrado para grais de liberdade que poder obtido pela tabela do qui–quadrado. O intervalo é o intervalo de confiança para o limiar .

Simulação[editar | editar código-fonte]

Para estudar um fenômeno aleatório que envolve uma variável normal, cujos parâmetros são conhecidos ou estimados, uma abordagem analítica muitas vezes é muito complexa para ser desenvolvida. Neste caso, é possível utilizar um método de simulação. Particularmente, o método de Monte Carlo que consiste em gerar uma amostra artificial de valores independentes de uma variável com um computador. Geralmente softwares ou linguagens de programação tem um gerador de números pseudoaleatórios com uma distribuição uniforme em . Então, transforma–se esta variável de distribuição em uma variável (adaptação de outros valores dos parâmetros não representa qualquer problema).

Abordagens para evitar[editar | editar código-fonte]

  • De maneira geral, pode–se utilizar a função inversa da função de distribuição: neste caso, a variável aleatória segue a distribuição normal padrão. Entretanto, este método não é conveniente por falta de expressões simples de funções e . Além disso, os resultados são numericamente insatisfatórios.
  • Se são doze variáveis independentes de distribuição uniforme em , então a variável tem média nula e desvio padrão unitário. Portanto, o devido ao teorema central do limite, esta variável segue aproximadamente a distribuição normal padrão.[88] Esta é uma maneira simples de gerar uma distribuição normal, porém a aproximação permanece imprecisa. 

Abordagens eficientes[editar | editar código-fonte]

  • Um melhor algoritmo é o método de Box–Muller, que utiliza uma representação polar de duas coordenadas uniformes dadas pelas fórmulas seguintes. Se , então , em que as duas variáveis resultantes são independentes. Este algoritmo é simples de ser realizado, mas o cálculo de um logaritmo, de uma raiz quadrada e de uma função trigonométrica retarda o processo.[88]
  • Uma melhoria foi proposta por Marsaglia e Bray em 1964[89], que substitui os cosenos e os senos pelas variáveis e ou e independentes de distribuição e quando (são rejeitados os pares que não verificarem a última condição). Portanto, Este algoritmo não é mais pesado para ser implementado e a simulação tem ganhado velocidade.[88]
  • Para um grande número de impressões aleatórias, o método Ziggourat é mais rápido, mas a implementação é mais complexa.

Implementação em software de computação[editar | editar código-fonte]

A distribuição normal foi incorporada em vários softwares de computação.

Planilhas[editar | editar código-fonte]

As planilhas em Microsoft Excel, OpenOffice.org Calc e LibreOffice Calc fornecem as seguintes funções:

  • LOI.NORMALE(x ; mu ; sigma ; cumulative) (em inglês, NORMDIST) : dá
    • se cumulative for booleano FAUX, a densidade de probabilidade da distribuição normal de esperança mu e desvio padrão sigma em x.
    • se cumulative for booleano VRAI, a função de distribuição da distribuição normal de esperança mu e desvio padrão sigma em x.
  • PHI(x) : dá a densidade de probabilidade da distribuição normal padrão φ em x.
  • LOI.NORMALE.STANDARD(x) (NORMSDIST) : dá a função de distribuição da distribuição normal padrão Φ em x.
  • LOI.NORMALE.INVERSE(p ; mu ; sigma) (NORMINV) dá o quantil q de uma distribuição normal para uma probabilidade p.
  • LOI.NORMALE.STANDARD.INVERSE(p) (NORMSINV)
  • CENTREE.REDUITE(x ; mu ; sigma) (STANDARDIZE) retorna (x – mu) / sigma.

Linguagem de programação estatística S[editar | editar código-fonte]

A linguagem S, implementada no software R e S–PLUS fornece as seguintes funções:

  • dnorm() : densidade de probabilidade da distribuição normal
    • dnorm(x) : para uma distribuição normal padrão em x ; dnorm(x, log=TRUE) dá o logaritmo natural do valor.
    • dnorm(x, mu, sigma) ou dnorm(x, mean = mu, sd = sigma) : para uma distribuição normal de esperança mu e desvio padrão sigma em x ; pode ser adicionado log = TRUE,
  • pnorm() : função de distribuição de uma distribuição normal
    • pnorm(q) : para uma distribuição normal padrão; lower.tail = FALSE dá o adicional 1 – Φ, log.p = TRUE dá o logaritmo natural do valor
    • pnorm(q, mu, sigma) ou pnorm(q, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma em x
  • qnorm() : dá os quantis de uma distribuição normal
    • qnorm(p) : para uma distribuição normal padrão; lower.tail = FALSE dá o quantil do adicional 1 – Φ, log.p = TRUE da o logaritmo natural do valor
    • qnorm(p, mu, sigma) ou qnorm(p, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma
  • rnorm() : gerador de números aleatórios de acordo com uma distribuição normal
    • rnorm(n) : gerador de n números aleatórios em uma distribuição normal padrão
    • rnorm(n, mu, sigma) ou rnorm(n, mean = mu, sd = sigma) : idem para uma distribuição normal de esperança mu e desvio padrão sigma
  • ks.test(A, "dnorm") : teste de normalidade de Kolmogorov–Smirnov

Matlab / Octave[editar | editar código-fonte]

O Matlab oferece os seguintes comandos:

  • randn(n) : gerador de n números aleatórios em uma distribuição normal padrão
    randn(m, n) : gerador de n números aleatórios em uma matriz mxn
  • normcdf(x, mu, sigma), cdf('norm', x, mu, sigma) e cdf('Normal', x, mu, sigma) : função de distribuição em x da distribuição normal de esperança mu e desvio padrão sigma (função de distribuição cumulativa)
  • normpdf(x, mu, sigma), pdf('norm', x, mu, sigma) e pdf('Normal', x, mu, sigma) : densidade de probabilidade em x da distribuição normal de esperan;ca mu e desvio padrão sigma (função de distribuição de probabilidade)
  • [mu, sigma] = normfit(X) : determina a esperança e o desvio padrão de um conjunto de dados X de regressão

Scilab[editar | editar código-fonte]

O Scilab (libre et gratuit) oferece os seguintes comandos:
  • rand(m, n, "normal") : matriz mxn de números aleatórios de distribuição normal padrão; rand(A, "normal") dá uma matriz de mesma dimensão que a matriz A
  • grand(m, n, "nor", mu, sigma) : matriz mxn de números aleatórios de distribuição normal de esperança mu e desvio padrão sigma
  • cdfnor("PQ", x, mu, sigma) : valor p da função de distribuição (função de distribuiçào cumulativa) em x para uma distribuição normal de esperança mu e desvio padrão sigma
  • cdfnor("X", mu, sigma, p, 1 - p) : valor do quantil q para uma probabilidade p
  • cdfnor("Mean", sigma, p, 1 - p, x) : esperança de uma distribuição normal com desvio padrão sigma e probabilidade cumulada em x para p
  • cdfnor("Std", p, 1 - p, x, mu) : desvio padrão de uma distribuição normal com probabilidade cumulada em x para p e esperança mu
As opções "Mean" e "Std" executam regressão se x e p são vetores.
A extensão Atoms CASCI fornecem outras funções que tem uma escrita mais simples.
  • cdfnormal(x) : função de distribuição Φ da distribuição normal padrão
    cdfnormal(x, mu, sigma) : função de distribuição de uma distribuição normal de esperança mu e desvio padrão sigma
  • idfnormal(p) : quantil Φ-1 da distribuição normal padrão (função de distribuição cumulativa inversa)
    idfnormal(p, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma
  • pdfnormal(x) : densidade de probabilidade φ da distribuição normal padrão (função de distribuição de probabilidade)
    pdfnormal(x, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma
  • rndnormal(n) : gerador de n números aleatórios em uma distribuição normal padrão; rndnormal(m, n) gera uma matriz mxn
    rndnormal(n, mu, sigma), rndnormal(m, n, mu, sigma) : idem para uma distribuição de esperança mu e desvio padrão sigma

Homenagem[editar | editar código-fonte]

Por sua ampla utilização nas ciências, a distribuição normal, muitas vezes pela utilização da curva em sino, é destacada em diferentes contextos e é utilizada para representar a universalidade da uma distribuição estatística, entre outros.

Francis Galton menciona a distribuição normal em seu trabalho Natural Inheritence de 1889[2]:

Em 1989, foi feita uma homenagem à Carl Friedrich Gauss com a impressão de um bilhete com seu rosto e a curva em sino (pedras suportam a curva de sino, e o caso de alguns matemáticos).

O estatístico William Youden escreveu[90] em 1962 uma explicação sobre a finalidade e a posição da distribuição normal nas ciências. Ele apresentou o caligrama em formato de sino.

THE
NORMAL
LAW OF ERROR
STANDS OUT IN THE
EXPERIENCE OF MANKIND
AS ONE OF THE BROADEST
GENERALIZATIONS OF NATURAL
PHILOSOPHY ♦ IT SERVES AS THE
GUIDING INSTRUMENT IN RESEARCHES
IN THE PHYSICAL AND SOCIAL SCIENCES AND
IN MEDICINE AGRICULTURE AND ENGINEERING ♦
IT IS AN INDISPENSABLE TOOL FOR THE ANALYSIS AND THE
INTERPRETATION OF THE BASIC DATA OBTAINED BY OBSERVATION AND EXPERIMENT

Em português, a lei normal do erro destaca-se na experiência da humanidade como uma das mais amplas generalizações de filosofia natural. Ela serve como instrumentos guias em pesquisas nas ciências físicas e sociais, na medicina, na agricultura e na engenharia. Ela é uma ferramenta essencial para a análise e a interpretação dos dados básicos obtidos pela observação e experimentação.

Referências

  1. a b Bru, Bernard (2006). «La Courbe de Gauss ou le Théorème de Bernoulli Raconté aux Enfants» (PDF). Mathematics and Social Sciences. 175 (3): 5 – 23 
  2. a b c d e f g h i j Fuchs, Aimé (1995). «Plaidoyer pour la Loi Normale» (PDF). Pour la Science. 17 páginas 
  3. Stigler, Stephen (1999). Statistics on the Table. [S.l.]: Harvard University Press. p. 499. 407 páginas 
  4. Stigler, Stephen (1999). Statistics on the Table. [S.l.]: Harvard University Press. p. 499. 406 páginas 
  5. Lévy, Paul (1937). Théorie de L'Addition des Variables Aléatoires. [S.l.]: Gauthier – Villars. 42 páginas 
  6. Lejeune, Michel (2006). Analyse Statistique des Données Spatiales. [S.l.]: Technip. 2 páginas 
  7. A Guide to Tables of the Normal Probability Integral. [S.l.]: U.S. Government Publishing Office. 1952. 16 páginas  |nome1= sem |sobrenome1= em Authors list (ajuda)
  8. a b Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 502 páginas 
  9. a b c d e f Kahane, Jean–Pierre (1 de julho de 2009). «La Courbe en Cloche». CNRS – Images des Maths. Consultado em 16 de fevereiro de 2017 
  10. Lifshits, M. A. (1995). Gaussian Random Functions. [S.l.]: Kluver Academic Publishers. p. 339. 1 páginas 
  11. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 309 páginas 
  12. a b Lifshits, M. A. (1995). Gaussian Random Functions. [S.l.]: Kluver Academic Publishers. p. 339. 2 páginas 
  13. Tassi, Philippe; Legait, Sylvia (1990). Théorie des Probabilités en vue des Applications Statistiques. [S.l.]: Technip. p. 367. 128 páginas 
  14. a b c Cramér, Harald (1970). Random Variables and Probability Distributions. [S.l.]: Cambridge University Press. p. 123. 50 páginas 
  15. a b Grinstead, Charles Miller; Snell, James Laurie (1997). Introduction to Probability 2ª ed. [S.l.]: American Mathematical Society. p. 519. 330 páginas 
  16. a b c Marsaglia, George (2004). «Evaluating the Normal Distribution». Journal of Statistical Software. 11 (4): 1 – 11 
  17. a b c Ministère de l'Éducation Nationale de la Jeunesse et de la Vie Associative (2012). «Ressources pour la Classe Terminale Générale et Technologique – Probabilités et Statistique» (PDF) 
  18. Droesbeke, Jean-Jacques; Lejeune, Michel; Saporta, Gilbert (2005). Modèles Statistiques pour Données Qualitatives. [S.l.]: Technip. p. 295. 104 páginas 
  19. a b c Cramér, Harald (1970). Random Variables and Probability Distributions 3ª ed. [S.l.]: Cambridge University Press. p. 123. 51 páginas 
  20. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 122 páginas 
  21. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 123 páginas 
  22. a b Protassov, Konstantin (2002). Analyse Statistique des Données Expérimentales. [S.l.]: EDP Sciences. p. 148. 27 páginas 
  23. a b c d Protassov, Konstantin (2002). Analyse Statistique des Données Expérimentales. [S.l.]: EDP Sciences. p. 148. 28 páginas 
  24. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 309 páginas 
  25. Ross, Sheldon M. (2007). Initiation aux Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. p. 592. 408 páginas 
  26. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 310 páginas 
  27. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 116 páginas 
  28. a b Ross, Sheldon M. (2007). Initiation aux Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. p. 592. 239 páginas 
  29. a b Lifshits, M. A. (1995). Gaussian Random Functions. [S.l.]: Kluver Academic Publishers. p. 339. 2 páginas 
  30. a b c d Weisstein, Eric W. «Gaussian Function». MathWorld. Consultado em 22 de fevereiro de 2017 
  31. Droesbeke, Jean–Jacques; Lejeune, Michel; Saporta, Gilbert (2005). Modèles Statistiques pour Données Qualitatives. [S.l.]: Technip. p. 295. 85 páginas 
  32. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 120 páginas 
  33. Protassov, 2002, p. 28.
  34. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 119 páginas 
  35. Abramowitz, Milton; Stegun, Irene (1972). Handbook of Mathematical Functions with Formulas 9ª ed. New York: Dover. p. 1047. 930 páginas 
  36. Grinstead, Charles Miller; Snell, James Laurie (1997). Introduction to Probability 2ª ed. [S.l.]: American Mathematical Society. p. 519. 345 páginas 
  37. Protassov, Konstantin (2002). Analyse Statistique des Données Expérimentales. [S.l.]: EDP Sciences. p. 148. 44 páginas 
  38. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 223 páginas 
  39. Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 651 páginas 
  40. Ross, Sheldon M. (2007). Initiation aux Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. p. 592. 299 páginas 
  41. Lifshits, M. A. (1995). Gaussian Random Functions. [S.l.]: Kluver Academic Publishers. p. 339. 4 páginas 
  42. Cramér, Harald (1970). Random Variables and Probability Distributions 3ª ed. [S.l.]: Cambridge University Press. p. 123. 52 páginas 
  43. Cramér, Harald (1970). Random Variables and Probability Distributions 3ª ed. [S.l.]: Cambridge University Press. p. 123. 53 páginas 
  44. Ross, Sheldon M. (2007). Initiation aux Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. p. 592. 235 páginas 
  45. Lifshits, M. A. (1995). Gaussian Random Functions. [S.l.]: Kluver Academic Publishers. p. 339. 125 páginas 
  46. Shannon, Claude (1948). «A Mathematical Theory of Communication» (PDF). The Bell System Technical Journal. 27: 379 – 423 
  47. Allison, Lloyd (2012). «Normal, Gaussian». Consultado em 02 de março de 2017  Verifique data em: |acessodata= (ajuda)
  48. a b Abramowitz, Milton; Stegun, Irene (1972). Handbook of Mathematical Functions with Formulas 9ª ed. New York: Dover. p. 1047. 932 páginas 
  49. a b Tassi, Philippe; Legait, Sylvia (1990). Théorie des Probabilités en vue des Applications Statistiques. [S.l.]: Technip. p. 367. 126 páginas 
  50. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 354 páginas 
  51. a b Grinstead, Charles Miller; Snell, James Laurie (1997). Introduction to Probability 2ª ed. [S.l.]: American Mathematical Society. p. 519. 213 páginas 
  52. Grinstead, Charles Miller; Snell, James Laurie (1997). Introduction to Probability 2ª ed. [S.l.]: American Mathematical Society. p. 519. 214 páginas 
  53. Protassov, 2002, p. 72.
  54. Protassov, Konstantin (2002). Analyse Statistique des Données Expérimentales. [S.l.]: EDP Sciences. p. 72. 44 páginas 
  55. Protassov, Konstantin (2002). Analyse Statistique des Données Expérimentales. [S.l.]: EDP Sciences. p. 148. 29 páginas 
  56. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 90 páginas 
  57. Ross, Sheldon M. (2007). Initiation aux Probabilités. [S.l.]: Presses Polytechniques et Universitaires Romandes. p. 592. 301 páginas 
  58. Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 703 páginas 
  59. Yger y Weil, 2009, p. 703.
  60. a b Ferrari, Nicolas (2006). «Prévoir l'investissement des Entreprises – Un Indicateur des Révisions dans l'Enquête Investissement». Économie et Statistique (395 – 396): 39 – 64 
  61. Bogaert, 2006, p. 330.
  62. a b Pham–Gia, T.; Turkkan, N.; Marchand, E. (1º de setembro de 2006). «Density of the Ratio of Two Normal Random Variables and Applications». Communications in Statistics – Theory and Methods. 35: 1569 – 1591 
  63. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 341 páginas 
  64. Henze, Norbert (1986). «A Probabilistic Representation of the 'Skew–Normal' Distribution». Scandinavian Journal of Statistics. 13 (4): 271 – 275 
  65. Rouzet, G. (1962). «Étude des Moments de la Loi Normale Tronquée». Revue de Statistique Appliquée. 10 (2): 49 – 61 
  66. Hochreiter, Sepp; Clevert, Djork–Arne; Obermayer, Klaus (2006). «A New Summarization Method for Affymetrix Probe Level Data» (PDF). Bioinformatics. 22 (8): 943 – 949 
  67. Irvine, Richard (2002). «A Geometrical Approach to Conflict Probability Estimation» (PDF). Air Traffic Control Quarterly Seminar. 10 (2): 1 – 15 
  68. Hosking, J. R. M.; Wallis, James R. (1997). Regional Frequency Analysis: An Approach Based on L–Moments. [S.l.]: Cambridge University Press. p. 224. 197 páginas 
  69. a b Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 86 páginas 
  70. a b c Seddik-Ameur, Nacira (2003). «Les Tests de Normalité de Lhoste». Mathematics and Social Sciences. 41 (162): 19 – 43 
  71. Bogaert, Patrick (2006). Probabilités pour Scientifiques et Ingénieurs. Paris: Éditions De Boeck. p. 387. 68 páginas 
  72. Mollo, Suzanne (1975). «Tort (Michel). — Le Quotient Intellectuel». Revue Française de Pédagogie. 33 (33): 66 – 68 
  73. Ridley, Mark (2004). Evolution 3ª ed. [S.l.]: Blakwell. p. 751. 76 páginas 
  74. a b Ridley, Mark (2004). Evolution 3ª ed. [S.l.]: Blakwell. p. 751. 226 páginas 
  75. Ridley, Mark (2004). Evolution 3ª ed. [S.l.]: Blakwell. p. 751. 252 páginas 
  76. «Construction of the World Health Organization Child Growth Standards: Selection of Methods for Attained Growth Curves» (PDF). Statistics in Medecine. 25: 247 – 265. 2006  |coautores= requer |autor= (ajuda)
  77. Hosking, J. R. M.; Wallis, James R. (1997). Regional Frequency Analysis: An Approach Based on L–Moments. [S.l.]: Cambridge University Press. p. 224. 157 páginas 
  78. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 354 páginas 
  79. a b c Mandelbrot, Benoît (1966). «Nouveaux Modèles de la Variation des Prix (Cycles Lents et Changements Instantanés)». Cahiers du Séminaire d'Économétrie (9): 53 – 66 
  80. Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 573 páginas 
  81. Tassi, Philippe; Legait, Sylvia (1990). Théorie des Probabilités en vue des Applications Statistiques. [S.l.]: Technip. p. 367. 144 páginas 
  82. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 228 páginas 
  83. Dodge, Yadolah (2004). Statistique – Dictionnaire Encyclopédique. [S.l.]: Springer–Verlag. p. 637. 519 páginas 
  84. a b c d e Rakotomalala, Ricco (2011). «Tests de Normalité» (PDF). Université Lumière Lyon 2. Consultado em 02 de março de 2017  Verifique data em: |acessodata= (ajuda)
  85. a b c Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 715 páginas 
  86. Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 716 páginas 
  87. Yger, Alain; Weil, Jacques–Arthur (2009). Mathématiques Appliquées. [S.l.]: Pearson Education. p. 890. 717 páginas 
  88. a b c Atkinson, A. C.; Pearce, M. C. (1976). «The Computer Generation of Beta, Gamma and Normal Random Variables». Journal of the Royal Statistical Society. 139 (4): 431 – 461 
  89. Marsaglia, George; Bray, Thomas A. (1964). «A Convenient Method for Generating Normal Variables». SIAM Review. 6 (3): 260 – 264 
  90. Stigler, Stephen (1999). Statistics on the Table. [S.l.]: Harvard University Press. p. 499. 415 páginas 


Erro de citação: Existem etiquetas <ref> para um grupo chamado "a", mas não foi encontrada nenhuma etiqueta <references group="a"/> correspondente