Inferência bayesiana

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Question book.svg
Esta página ou secção não cita nenhuma fonte ou referência, o que compromete sua credibilidade (desde fevereiro de 2014).
Por favor, melhore este artigo providenciando fontes fiáveis e independentes, inserindo-as no corpo do texto por meio de notas de rodapé. Encontre fontes: Googlenotícias, livros, acadêmicoScirusBing. Veja como referenciar e citar as fontes.

A inferência bayesiana é um tipo de inferência estatística que descreve as incertezas sobre quantidades invisíveis de forma probabilística. Incertezas são modificadas periodicamente após observações de novos dados ou resultados. A operação que calibra a medida das incertezas é conhecida como operação bayesiana e é baseada na fórmula de Bayes. A fórmula de Bayes é muitas vezes denominada Teorema de Bayes.

Introdução á regra de Bayes[editar | editar código-fonte]

Formalmente[editar | editar código-fonte]

Inferência bayesiana deriva a probabilidade posterior como conseqüência de dois antecedentes, uma probabilidade anterior e uma "função de verossimilhança" derivado de um modelo de probabilidade para os dados a serem observados. A inferência bayesiana calcula a probabilidade posterior de acordo com a regra de Bayes:

P(H\mid E) = \frac{P(E\mid H) \cdot P(H)}{P(E)}

onde:

  • \textstyle \mid significa dado.
  • \textstyle H representa qualquer hipótese cuja probabilidade pode ser afetado por dados (chamada evidência abaixo). Muitas vezes, há hipóteses concorrentes , a partir do qual se escolhe a mais provável.
  • a evidência \textstyle E, corresponde a novos dados que não foram utilizados no cálculo da probabilidade anterior.
  • \textstyle P(H), a probabilidade a priori, é a probabilidade de \textstyle H antes de \textstyle E ser observada. Isso indica sua estimativa anterior da probabilidade de que uma hipótese seja verdadeira, antes de obter a evidência atual.
  • \textstyle P(H\mid E) a probabilidade a posteriori, é a probabilidade de \textstyle H dado \textstyle E, ou seja , depois de \textstyle E ser observada. Isto diz-nos o que queremos saber: a probabilidade de uma hipótese dada a evidência observada.
  • \textstyle P(E\mid H) é a probabilidade de observar \textstyle E dado \textstyle H. indica a compatibilidade dos elementos com a hipótese dada.
  • \textstyle P(E) é às vezes chamado de probabilidade marginal ou "evidência modelo" . Este fator é a mesma para todas as hipóteses possíveis que estão sendo considerados. Isto significa que este fator não entra em determinar as probabilidades relativas de diferentes hipóteses .

Informalmente[editar | editar código-fonte]

Certamente, entende-se que a regra de bayes faz muito sentido. Se a evidência não corresponder com a hipótese, a hipótese deve ser rejeitada. Mas se uma hipótese é extremamente improvável a priori, deve-se também rejeitá-la, mesmo que a evidência pareca corresponder-se.

Por exemplo, imagine que eu tenho várias hipoteses sobre a natureza de um bebê recém nascido, incluindo:

  • : É um menino de cabelo marrom.
  • : É uma menina de cabelos loiros.
  • : É um cachorro.

Então considere dois cenários:

  1. Estou apresentado com provas sob a forma de uma imagem de uma menina de cabelos loiros. Acho que esta evidência apoia e se opõe a de que é um menino de cabelo marrom.
  2. Estou apresentado com provas sob a forma de uma imagem de um cão. Apesar desta evidência, tratada isoladamente, apoio, a minha crença anterior nesta hipótese (que um ser humano pode dar à luz a um cachorro) é extremamente pequena, por isso a probabilidade posterior é, no entanto desprezível.

O ponto crítico sobre inferência Bayesiana, então, é que ele fornece uma maneira de princípios de combinar novas evidências com as crenças anteriores, através da aplicação da regra de Bayes. (. Compare isso com inferência freqüentista, que se baseia apenas na evidência como um todo, sem qualquer referência a crenças anteriores) Além disso, a regra de Bayes pode ser aplicada de forma iterativa: depois de observar algumas provas, a probabilidade posterior resultante pode então ser tratado como um probabilidade prévia, e uma nova probabilidade posterior calculado a partir de novas provas. Isto permite à princípios Bayesianos serem aplicado a vários tipos de evidência, se visto de uma só vez ou ao longo do tempo. Este procedimento é chamado de "atualização bayesiana".

Veja também[editar | editar código-fonte]

Referências externas[editar | editar código-fonte]