Usuário(a):MGromov/Testes29

Origem: Wikipédia, a enciclopédia livre.

Na teoria da probabilidade e estatística, um processo Gaussiano é um modelo estatístico, onde as observações ocorrem em um domínio contínuo, seja de tempo ou de espaço. Em um processo Gaussiano, a cada ponto, em alguns contínua entrada de espaço é associado com uma distribuídos normalmente variável aleatória. Além disso, todos os finitos coleção dessas variáveis aleatórias tem um multivariada distribuição normal. A distribuição de um processo Gaussiano é a distribuição conjunta de todos os (infinitos) variáveis aleatórias e, como tal, é uma distribuição de funções com um domínio contínuo, seja de tempo ou de espaço.

Visto como uma máquina-algoritmo de aprendizagem, uma Gaussiana utiliza o processo de lenta aprendizagem e uma medida de similaridade entre os pontos (esta é a função kernel) para predizer o valor de um ponto invisível a partir de dados de treinamento. A previsão não é apenas uma estimativa para esse ponto, mas também tem a incerteza informação -- é um one-dimensional distribuição Gaussiana (que é a marginal de distribuição em que ponto).[1]

Para algumas funções de kernel, álgebra matricial pode ser usada para calcular as previsões, como descrito na krigeagem artigo. Quando um parametrizado kernel está sendo utilizado, o software de otimização normalmente é usado para o ajuste de uma Gaussiana modelo de processo.

O conceito de Gauss de processos é nomeado após Carl Friedrich Gauss , porque é baseado na noção de que a distribuição Gaussiana (distribuição normal). Gaussiana processos pode ser visto como um infinito-dimensional generalização multivariada distribuição normal.

Gaussiana processos são úteis na modelagem estatística, beneficiando das propriedades herdadas do normal. Por exemplo, se um processo aleatório é modelado como um processo gaussiano, as distribuições de várias grandezas derivadas podem ser obtida explicitamente. Tais quantidades de incluir o valor médio do processo através de uma série de vezes e o erro na estimativa da média utilizando os valores de amostra em um pequeno conjunto de vezes.

Definição[editar | editar código-fonte]

Um processo gaussiano é uma distribuição estatística Xt, tT, para o qual qualquer finito combinação linear das amostras tem um conjunto distribuição Gaussiana. Mais precisamente, qualquer linear funcional aplicado para a função de exemplo Xt vai dar uma distribuídos normalmente resultado. Notação-sábio, pode-se escrever X ~ GP(m,K), ou seja, a função de reprodução aleatória X é distribuído como um GP com a média da função de m e covariância da função de K.[2] Quando o vetor de entrada t é de dois ou multi-dimensional, um processo Gaussiano pode ser também conhecido como uma Gaussiana aleatória de campo.[3]

Alguns autores[4] suponha que as variáveis aleatórias Xt tem média zero; isto simplifica os cálculos , sem perda de generalidade e permite que o quadrado da média propriedades do processo para ser inteiramente determinada pela covariância da função de K.[5]

Definições alternativas[editar | editar código-fonte]

Como alternativa, um tempo contínuo processo estocástico é Gaussiana se, e somente se, para todo conjunto finito de índices de no índice definido

é um multivariada Gaussiana variável aleatória.[6] Usando característica de funções de variáveis aleatórias, a Gaussiana propriedade pode ser formulado da seguinte maneira: é Gaussiana se, e somente se, para todo conjunto finito de índices de existem valores reais , com de tal forma que a seguinte igualdade vale para todas as

onde indica o número imaginário .

Os números e pode ser mostrado para ser o covariâncias e significa uma das variáveis no processo.[7]

A covariância de funções[editar | editar código-fonte]

Uma chave fato de Gauss processos é que eles podem ser completamente definidos pela ordem segundo as estatísticas.[3] Assim, se um processo Gaussiano é assumido ter média zero, definindo a função de covariância completamente define o processo de' comportamento. Importante: a não-negativo definição desta função permite que a sua decomposição espectral usando o Karhunen–Loeve de expansão. Aspectos básicos que podem ser definidos através de covariância da função são o processo de estacionaridade, isotropia, a lisura e a periodicidade.[8][9]

Estacionaridade refere-se ao processo de' comportamento sobre a separação de quaisquer dois pontos x e x' . Se o processo é estacionário, depende de sua separação, xx', enquanto se não-estacionária depende da posição real dos pontos x e x'. Por exemplo, o caso especial de Ornstein–Uhlenbeck processo, um movimento Browniano processo é estacionário.

Se o processo só depende de |xx'|, a distância Euclidiana (e não o sentido) entre x e x', então o processo é considerado isotrópico. Um processo que é ao mesmo tempo estacionário e isotrópico é considerado homogêneo;[10] na prática, estas propriedades refletem as diferenças (ou melhor, a falta delas) no comportamento do processo, tendo em vista a localização do observador.

Em última análise Gaussiana processos de traduzir como tendo priores em funções e a suavidade desses priores pode ser induzida pela covariância da função.[8] , Se esperamos o que para o "próximo passo" pontos de entrada x e x' o seu correspondente em pontos de saída y e y' para ser o "próximo passo" também, então, do pressuposto de continuidade está presente. Se quisermos permitir uma deslocação significativa, em seguida, escolher uma áspera função de covariância. Exemplos extremos do comportamento é a Ornstein–Uhlenbeck covariância da função e o quadrado exponencial, onde a anterior nunca é diferenciável e o último infinitamente diferenciáveis.

Periodicidade refere-se a indução de periódicos padrões no comportamento do processo. Formalmente, isto é conseguido através do mapeamento de entrada x para um bidimensionais do vetor u(x) = (cos(x), sin(x)).

De costume funções de covariância[editar | editar código-fonte]

O efeito da escolha de diferentes kernels em prévia de uma função de distribuição Gaussiana processo. A esquerda é um quadrado exponencial do kernel. Meio é Browniano. Direito é quadrática.

Há um grande número de funções de covariância:[9]

  • Constant :
  • Linear:
  • Gaussian Noise:
  • Squared Exponential:
  • Ornstein–Uhlenbeck:
  • Matérn:
  • Periodic:
  • Rational Quadratic:

Aqui . O parâmetro é a característica comprimento de escala do processo (praticamente, "como fechar" dois pontos e tem que ser a influenciar-se mutuamente de forma significativa), δ é o delta de Kronecker e σ o desvio padrão do ruído flutuações. Além disso, é a função de Bessel modificada de ordem e é a função gamma avaliada em . Importante, uma complicada função de covariância pode ser definido como uma combinação linear de outras mais simples funções de covariância, a fim de integrar diferentes informações sobre o conjunto de dados que tem em mãos.

Claramente, os resultados inferenciais são dependente dos valores dos hiperparâmetros θ (e.g. e, σ) a definição do modelo de comportamento. Uma escolha popular para θ é fornecer o máximo a posteriori (MAP) estimativas com alguns escolhido antes. Se a prévia é muito perto de uniforme, isto é o mesmo que maximizar a probabilidade marginal do processo; a marginalização que está sendo feito sobre o observado os valores de processo .[9] Esta abordagem também é conhecida como máxima verossimilhança II, prova de maximização, ou Bayes Empírico.[5]

Movimento browniano como a Integral de Gauss de processos[editar | editar código-fonte]

Um processo de Wiener (também conhecido como movimento Browniano) é a integral de um ruído branco Gaussiano processo. É não estacionária, mas tem incrementos estacionários.

A Ornstein–Uhlenbeck processo é estacionário Gaussiano processo.

O Browniano ponte é a integral de um processo Gaussiano, cujos incrementos não são independentes.

O movimento Browniano fracionário é a integral de um processo Gaussiano, cujos covariância da função é uma generalização do processo de Wiener.

Aplicações[editar | editar código-fonte]

Um processo Gaussiano pode ser usado como uma prévia distribuição de probabilidade sobre as funções em inferência Bayesiana.[9][11] Dado qualquer conjunto de N pontos no domínio desejado de suas funções, tomar um multivariada Gaussiana cuja covariância da matriz de parâmetro é a matriz de Gram de seu N pontos com alguns desejado kernel, e a exemplo do que Gaussiana.

Inferência de valores contínuos com uma Gaussiana processo anterior é conhecido como Gauss processo de regressão, ou de kriging; ampliação de Gauss processo de regressão de múltiplas variáveis de segmentação é conhecido como cokriging.[12] Gaussiana processos são, portanto, útil como uma poderosa não-linear multivariada de interpolação e de extensão de exemplo[13] ferramenta. Gaussiana processo de regressão pode ser prorrogada para o endereço de tarefas de aprendizagem em ambos os supervisionado (e.g. classificação probabilística[9]) e não-supervisionada (e.g. coletor de aprendizagem[3]) a aprendizagem de estruturas.

Gaussiana processo de previsão, ou de kriging[editar | editar código-fonte]

Gaussiana Processo de Regressão (previsão) com um quadrado exponencial do kernel. Gráfico da esquerda são desenha a partir da prévia e função de distribuição. Médio são sorteios do posterior. Certo é que significa que a previsão com um desvio padrão de sombreado.

Quando em causa com uma Gaussiana processo de regressão problema, supõe-se que para um processo Gaussiano f observado nas coordenadas x, o vetor de valores é apenas uma amostra de uma distribuição Gaussiana multivariada de dimensão igual ao número de observado coordenadas |x|. Portanto, sob o pressuposto de um zero-média da distribuição, , onde é a matriz de covariância entre todos os pares possíveis para um determinado conjunto de hiperparâmetros θ.[9] Como tal, o log de probabilidade marginal é:

e maximizar este marginal probabilidade para θ fornece a especificação completa do processo Gaussiano f. Pode-se brevemente observação neste ponto que o primeiro termo corresponde a uma pena de prazo para um modelo de fracasso para ajustar os valores observados e o segundo termo a uma pena de prazo, que aumenta proporcionalmente para a complexidade de um modelo. Tendo especificado θ a fazer previsões sobre inobservância de valores nas coordenadas x*, em seguida, é só uma questão de desenho a partir de amostras de previsão de distribuição onde posterior estimativa média é definida como:

e posterior variância da estimativa de B é definida como:

onde é a covariância entre as novas coordenadas de estimativa de x* e todas as outras observadas as coordenadas de x para um determinado hyperparameter vetor θ, e são definidos como antes e é a variação no ponto x*, como ditado por θ. É importante notar que praticamente posterior mean estimate (a "estimativa") é apenas uma combinação linear das observações ; de forma semelhante, a variação de é, na verdade, independente das observações . Um conhecido ponto de estrangulamento no processo Gaussiano previsão é de que a complexidade computacional de previsão é cúbica do número de pontos de |x| e, como tal, pode tornar-se inviável para grandes conjuntos de dados.[8] Obras sobre esparsos Gaussiana processos, que normalmente são baseados na idéia de construção de um conjunto representativo para o processo de f, para tentar contornar esse problema.[14][15]

Veja também[editar | editar código-fonte]

  • Bayes linear estatísticas
  • Bayesiana interpretação de regularização

Notas[editar | editar código-fonte]

  1. http://platypusinnovation.blogspot.co.uk/2016/05/a-simple-intro-to-gaussian-processes.html  Em falta ou vazio |título= (ajuda)
  2. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  3. a b c [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  4. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  5. a b Citação vazia (ajuda) 
  6. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  7. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  8. a b c [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  9. a b c d e f [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  10. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  11. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  12. [S.l.: s.n.]  Em falta ou vazio |título= (ajuda)
  13. Barkan, O., Weill, J., & Averbuch, A. (2016).
  14. Citação vazia (ajuda) 
  15. Citação vazia (ajuda) 

Ligações externas[editar | editar código-fonte]

Software[editar | editar código-fonte]

Tutoriais em vídeo[editar | editar código-fonte]

[[Categoria:Processos estocásticos]]