Diferenças entre edições de "Inferência bayesiana"

Saltar para a navegação Saltar para a pesquisa
3 bytes removidos ,  03h53min de 11 de fevereiro de 2019
sem resumo de edição
m (Wikipédia não é fonte confiável; ajuste(s), typos fixed: ascenção → ascensão, nivel → nível utilizando AWB)
{{Sem-fontesmais notas|data=fevereiro de 20142019}}
A '''inferência bayesiana''' (IB) consiste na avaliação de hipóteses pela [[máxima verossimilhança]], uma decorrência imediata da fórmula de Bayes, e é fundamental para métodos computacionais relacionados à inteligência, mineração de dados, ou linguística, sejam eles métodos bayesianos de [[aprendizado de máquina]] ([[AM]]) ou não-bayesianos. A IB é uma extensão da [[estatística bayesiana]] e da [[inferência estatística]] para a [[inteligência computacional]] (IC), onde é sinônimo de aprendizado bayesiano (ou [[am#baysiano|aprendizado de máquina bayesiano]]), e encontra aplicações em domínios igualmente genéricos, e.g. na biomedicina, computação em nuvem, pesquisa de algoritmos, criatividade computacional. Os resultados, em termos de classificação e regressão, por exemplo, são em muito casos satisfatórios e até difíceis de serem aprimorados, de propriedades convenientes e bem conhecidas, e constituem [[baseline]]s.<ref name="sug"/>
A '''inferência bayesiana''' (IB) consiste na avaliação de hipóteses pela [[máxima verossimilhança]], uma decorrência imediata da fórmula de Bayes,
e é fundamental para métodos computacionais relacionados à inteligência, mineração de dados, ou linguística, sejam eles métodos bayesianos de [[aprendizado de máquina]] ([[AM]]) ou não-bayesianos.
A IB é uma extensão da [[estatística bayesiana]] e da [[inferência estatística]] para a [[inteligência computacional]] (IC),
onde é sinônimo de aprendizado bayesiano (ou [[am#baysiano|aprendizado de máquina bayesiano]]),
e encontra aplicações em domínios igualmente
genéricos, e.g. na biomedicina, computação em nuvem, pesquisa de algoritmos, criatividade computacional.
Os resultados, em termos de classificação e regressão, por exemplo,
são em muito casos satisfatórios e até difíceis de serem aprimorados,
de propriedades convenientes e bem conhecidas, e constituem [[baseline]]s.<ref name="sug"/>
 
As implementações básicas são adaptadas a muitos casos elaborados de [[IA]], em detrimento do valor como baseline, mas muitas vezes com modelos já bem desenvolvidos e teoria estabelecida e profunda. Além da utilidade singular para implementações e lida com problemas reais (através da modelagem e da consideração dos dados), a IB é a simples aplicação do teorema de Bayes a hipóteses ''h'' e evidências ''e'', i.e. do relacionamento entre as [[probabilidade]]s condicionais e absolutas:
As implementações básicas são adaptadas a muitos casos elaborados de [[IA]],
em detrimento do valor como baseline, mas muitas vezes com modelos já bem desenvolvidos
e teoria estabelecida e profunda.
Além da utilidade singular para implementações e lida com problemas reais
(através da modelagem e da consideração dos dados),
a IB é a simples aplicação do teorema de Bayes a hipóteses ''h'' e evidências ''e'',
i.e. do relacionamento entre as [[probabilidade]]s condicionais e absolutas:
 
{{NumBlk|:|<math>h_a = argmax_h \left[p(h | e) = \frac{p(e | h) p(h)}{p(e)} \propto p(e | h) p(h) \;\;\text{ pois }\;\; p(e)|h = p(e) \right]</math>|{{EquationRef|1}}}}
== Teoria básica ==
{{âncora|MLE}}
Na IB, o aprendizado se dá, paradigmaticamente, por ''argmax_h p(h| e)'', ou seja, pela escolha da hipótese de máxima verossimilhança <math>h_a</math>,
consideradas as evidências (e.g. os dados) e as hipóteses de interesse. Encontrar a hipótese que satisfaz a Equação ({{EquationNote|1}}) é uma técnica
por ''argmax_h p(h| e)'', ou seja, pela escolha da hipótese de máxima verossimilhança <math>h_a</math>,
chamada MLE (''maximum likelyhood estimation''), i.e. estimação/inferência/aprendizado por maximização da verossimilhança (''likelihood'').
consideradas as evidências (e.g. os dados) e as hipóteses de interesse.
Encontrar a hipótese que satisfaz a Equação ({{EquationNote|1}}) é uma técnica
chamada MLE (''maximum likelyhood estimation''), i.e. estimação/inferência/aprendizado por
maximização da verossimilhança (''likelihood'').
 
=== MLE e MAP ===
{{âncora|MAP}}
Embora a técnica fundamental da [[IB]] seja a [[#MLE|MLE]], a outra condicional entre ''e'' e ''h'' também é usada para inferência:
a outra condicional entre ''e'' e ''h'' também é usada para inferëncia:
 
:<math>h_a = argmax_h p(e | h)</math>
 
=== Interpretação fundamental ===
A associação probabilítica de uma (ou mais) hipótese(s), isolada(s), aos dados é a inferência frequentista (veja [[#MLE e MAP|MAP]]). Já a consideração da [[distribuição de probabilidade]] das hipóteses, [[distribuição marginal|condicionadas]] às [[evidência]]s (e.g. dados), em um espaço de [[hipótese]]s de interesse, possibilita uma escolha fundamentada e eficiente de uma (ou mais) hipótese(s), e é o procedimento adotado na [[#MLE e MAP|MLE]] de forma bastante direta, e é o aspecto fundamental da IB que a torna relevante para a [[teoria]] e [[prática]] de [[reconhecimento de padrões]] e da [[teoria da decisão]], e canônica na consideração e construção de sistemas de [[inteligência computacional]], mesmo de [[computação natural]] em que métodos de [[computação bioinspirada|bioinspirados]] são contrastados com a IB.
A associação probabilítica de uma (ou mais) hipótese(s), isolada(s), aos dados
é a inferência frequentista (veja [[#MLE e MAP|MAP]]).
Já a consideração da [[distribuição de probabilidade]] das hipóteses,
[[distribuição marginal|condicionadas]] às [[evidência]]s (e.g. [[dado]]s),
em um espaço de [[hipótese]]s de interesse, possibilita
uma escolha fundamentada e eficiente de uma (ou mais) hipótese(s),
e é o procedimento adotado na [[#MLE e MAP|MLE]] de forma bastante direta,
e é o aspecto fundamental da IB que a torna relevante
para a [[teoria]] e [[prática]] de [[reconhecimento de padrões]] e da [[teoria da decisão]],
e canônica na consideração e construção de sistemas de [[inteligência computacional]],
mesmo de [[computação natural]] em que métodos de [[computação bioinspirada|bioinspirados]]
são contrastados com a IB.
 
=== Nomenclatura mínima ===
Na Equação ({{EquationNote|1}}), ''p(h)'' é chamada ''probabilidade anterior'' (ou a priori), p(e | h) é chamada ''condicional anterior'' (ou a priori),
e p(h | e) de ''condicional posterior'' (ou a posteriori), probabilidade posterior, ou [[verossimilhança]]. Seu cálculo se dá através da [[função de verossimilhança]], e a MLE é, essencialmente, uma [[maximização de verossimilhança]]. Contraste/conflito com a [[função de verossimilhança]] da MLE
p(e | h) é chamada ''condicional anterior'' (ou a priori),
é o critério principal para considerar não-bayesiano um modelo de inferência. Note que o nome MAP, máxima probabilidade anterior, conflita com
e p(h | e) de ''condicional posterior'' (ou a posteriori),
o nome de ''p(h)'', probabilidade anterior, pois a MAP maximiza ''p(x|h)'' e não ''p(h)'' (Veja também [[distribuições marginais]] e os artigos de [[probabilidade]] e [[estatística]]).
probabilidade posterior, ou [[verossimilhança]].
Seu cálculo se dá através da [[função de verossimilhança]],
e a MLE é, essencialmente, uma [[maximização de verossimilhança]].
Contraste/conflito com a [[função de verossimilhança]] da MLE
é o critério principal para considerar não-bayesiano
um modelo de inferência.
Note que o nome MAP, máxima probabilidade anterior, conflita com
o nome de ''p(h)'', probabilidade anterior, pois a MAP maximiza ''p(x|h)'' e
não ''p(h)''.
Veja também [[distribuições marginais]] e os artigos de [[probabilidade]] e [[estatística]].
 
==== Probabilidade VS verossimilhança ====
125 119

edições

Menu de navegação