Fator de Bayes

Origem: Wikipédia, a enciclopédia livre.

Em estatística, o uso de fatores de Bayes é uma alternativa bayesiana ao teste de hipóteses clássico.[1][2] A comparação de modelos bayesianos é um método de seleção de modelos baseado em fatores de Bayes. Os modelos em consideração são modelos estatísticos.[3] O objetivo do fator Bayes é quantificar o suporte para um modelo em comparação com outro, independentemente de esses modelos estarem corretos.[4] A definição técnica de "suporte" no contexto da inferência bayesiana é descrita abaixo.

Definição[editar | editar código-fonte]

O fator de Bayes é uma razão de verossimilhança da verossimilhança marginal de duas hipóteses concorrentes, geralmente uma nula e uma alternativa.[5]

A probabilidade a posteriori de um modelo M conhecendo-se os dados D é fornecida pelo teorema de Bayes :

O termo representa a probabilidade de que alguns dados sejam produzidos sob a premissa do modelo M ; avaliar corretamente é a chave para a comparação do modelo bayesiano.

Em um problema de seleção de modelos no qual temos que escolher entre dois modelos, a plausibilidade dos dois modelos M 1 e M 2, parametrizados por vetores de parâmetros do modelo e , é avaliada pelo fator de Bayes (K) dado por

Quando os dois modelos são igualmente prováveis a priori (ou seja, ), o fator de Bayes é igual à razão das probabilidades posteriores de M 1 e M 2. Se, em vez da integral do fator de Bayes, for usada a verossimilhança correspondente à estimativa de máxima verossimilhança do parâmetro para cada modelo estatístico, o teste se tornará um teste clássico de razão de verossimilhança. Diferentemente de um teste de razão de verossimilhança, essa comparação de modelo bayesiano não depende de nenhum conjunto único de parâmetros, pois se integra a todos os parâmetros em cada modelo (com relação aos respectivos anteriores). No entanto, uma vantagem do uso dos fatores de Bayes é que ele inclui uma penalidade por incluir muita estrutura do modelo,[6] protegendo contra o sobreajuste. Para modelos em que uma versão explícita da probabilidade não está disponível ou é muito cara para avaliar numericamente, o cálculo bayesiano aproximado pode ser usado para a seleção de modelos em uma estrutura bayesiana,[7] com a ressalva de que as estimativas bayesianas aproximadas dos fatores de Bayes são frequentemente tendenciosas.[8]

Outras abordagens são:

  • tratar a comparação de modelos como um problema de decisão calculando o valor ou custo esperado de cada escolha de modelo;
  • para usar o comprimento mínimo da mensagem (MML).

Interpretação[editar | editar código-fonte]

Um valor de K > 1 significa que M1 é mais suportado pelos dados que M2. Observe que o teste clássico de hipóteses fornece um status preferido para uma hipótese (ou modelo) (a 'hipótese nula') e considera apenas evidências contra ela. Harold Jeffreys deu uma escala para a interpretação de K:[9]

K dHart bits Strength of evidence
< 100 0 Negative (supports M2)
100 to 101/2 0 to 5 0 to 1.6 Barely worth mentioning
101/2 to 101 5 to 10 1.6 to 3.3 Substantial
101 to 103/2 10 to 15 3.3 to 5.0 Strong
103/2 to 102 15 to 20 5.0 to 6.6 Very strong
> 102 > 20 > 6.6 Decisive

A segunda coluna fornece os pesos correspondentes de evidência nos decihartleys (também conhecidos como decibans); bits são adicionados na terceira coluna para maior clareza. De acordo com IJ Good, uma mudança no peso da evidência de 1 deciban ou 1/3 de bit (ou seja, uma alteração no odds ratio de pares para cerca de 5:4) é tão sutil quanto os seres humanos podem razoavelmente perceber seu grau de crença. em uma hipótese no uso diário.[10]

Uma tabela alternativa, amplamente citada, é fornecida por Kass e Raftery (1995):[6]

log10 K K Strength of evidence
0 to 1/2 1 to 3.2 Not worth more than a bare mention
1/2 to 1 3.2 to 10 Substantial
1 to 2 10 to 100 Strong
> 2 > 100 Decisive

Exemplo[editar | editar código-fonte]

Suponha que tenhamos uma variável aleatória que produza um sucesso ou um fracasso. Queremos comparar um modelo M1 no qual a probabilidade de sucesso é q = ½, e outro modelo M2 no qual q é desconhecido e tomamos uma distribuição anterior para q que é uniforme em [0,1]. Tomamos uma amostra de 200 e encontramos 115 sucessos e 85 falhas. A verossimilhança pode ser calculada de acordo com a distribuição binomial :

Assim, temos para M1

enquanto que para o M2 temos

A proporção é então de 1.197 ..., que "mal vale a pena mencionar", mesmo que aponte muito levemente para M 1 .

Um teste de hipótese freqüentista de M1 (aqui considerado como hipótese nula ) teria produzido um resultado muito diferente. Esse teste diz que M1 deve ser rejeitado no nível de significância de 5%, uma vez que a probabilidade de obter 115 ou mais sucessos de uma amostra de 200 quando q = ½ é de 0,0200. No caso de um teste bicaudal para obter um número tão ou mais extremo que 115 é 0,0400. Observe que 115 está a mais de dois desvios padrão de 100. Assim, enquanto um teste de hipótese freqüentista produziria resultados significativos no nível de significância de 5%, o fator Bayes dificilmente considera que este seja um resultado extremo. Observe, no entanto, que um anterior não uniforme (por exemplo, um que reflete o fato de que você espera que o número de sucessos e falhas seja da mesma ordem de grandeza) pode resultar em um fator de Bayes que está mais de acordo com o teste de hipótese frequentista.

Um teste de razão de verossimilhança clássico teria encontrado a estimativa de máxima verossimilhança para q, ou seja, 115200 = 0,575, de onde

(em vez de calcular a média de todas as q possíveis). Isso fornece uma razão de verossimilhança de 0,1045 e aponta para M2 .

M2 é um modelo mais complexo do que M1 , porque tem um parâmetro livre que lhe permite modelar os dados mais estreitamente. A capacidade dos fatores Bayes de levar isso em consideração é uma das razões pelas quais a inferência bayesiana foi apresentada como justificativa teórica, sendo uma generalização da navalha de Occam, reduzindo os erros do tipo I.[11]

Por outro lado, o método moderno de verossimilhança relativa leva em consideração o número de parâmetros livres nos modelos, (diferentemente da taxa de verossimilhança clássica). O método de verossomilhança relativa pode ser aplicado da seguinte maneira. O modelo M1 possui 0 parâmetros e, portanto, seu valor AIC é 2 · 0   − 2 · ln (0,005956)   = 10,2467. O modelo M 2 possui 1 parâmetro e, portanto, seu valor AIC é 2 · 1   − 2 · ln (0,056991)   = 7,7297. Portanto, M 1 é sobre exp ((7.7297   − 10,2467) / 2)   = 0,284 vezes mais provável que M2 para minimizar a perda de informações. Assim H2 é ligeiramente preferido, mas também de M1 não pode ser excluída.

Inscrição[editar | editar código-fonte]

  • O fator Bayes foi aplicado para classificar a expressão diferencial dinâmica de genes em vez do valor q.[12]

Ver também[editar | editar código-fonte]

  • Critério de informação de Akaike
  • Computação bayesiana aproximada
  • Critério de informação bayesiano
  • Critério de informação de desvio
  • O paradoxo de Lindley
  • Comprimento mínimo da mensagem
  • Seleção de modelo
Razões estatísticas

Referências

  1. Goodman (1999). «Toward evidence-based medical statistics. 1: The P value fallacy». Ann Intern Med. 130: 995–1004. PMID 10383371. doi:10.7326/0003-4819-130-12-199906150-00008 
  2. Goodman (1999). «Toward evidence-based medical statistics. 2: The Bayes factor». Ann Intern Med. 130: 1005–13. PMID 10383350. doi:10.7326/0003-4819-130-12-199906150-00019 
  3. Morey (2016). «The philosophy of Bayes factors and the quantification of statistical evidence». Journal of Mathematical Psychology. 72: 6–18. doi:10.1016/j.jmp.2015.11.001 
  4. Ly (2016). «Harold Jeffreys's default Bayes factor hypothesis tests: Explanation, extension, and application in psychology». Journal of Mathematical Psychology. 72: 19–32. doi:10.1016/j.jmp.2015.06.004 
  5. Good, Phillip; Hardin, James (23 de julho de 2012). Common errors in statistics (and how to avoid them). John Wiley & Sons, Inc. 4th ed. Hoboken, New Jersey: [s.n.] pp. 129–131. ISBN 978-1118294390 
  6. a b «Bayes Factors» (PDF). Journal of the American Statistical Association. 90 (430). 1995. JSTOR 2291091. doi:10.2307/2291091 
  7. «Simulation-based model selection for dynamical systems in systems and population biology» (PDF). Bioinformatics. 26: 104–10. 2009. PMC 2796821Acessível livremente. PMID 19880371. arXiv:0911.1705Acessível livremente. doi:10.1093/bioinformatics/btp619 
  8. «Lack of confidence in approximate Bayesian computation model choice». Proceedings of the National Academy of Sciences. 108: 15112–15117. 2011. Bibcode:2011PNAS..10815112R. PMC 3174657Acessível livremente. PMID 21876135. doi:10.1073/pnas.1102900108 
  9. Jeffreys, Harold (1998) [1961]. The Theory of Probability 3rd ed. Oxford, England: [s.n.] ISBN 9780191589676 
  10. Good (1979). «Studies in the History of Probability and Statistics. XXXVII A. M. Turing's statistical work in World War II». Biometrika. 66: 393–396. MR 548210. doi:10.1093/biomet/66.2.393 
  11. Sharpening Ockham's Razor On a Bayesian Strop
  12. Hajiramezanali, E. & Dadaneh, S. Z. & Figueiredo, P. d. & Sze, S. & Zhou, Z. & Qian, X. Differential Expression Analysis of Dynamical Sequencing Count Data with a Gamma Markov Chain. Arxiv