Correção de Bonferroni

Origem: Wikipédia, a enciclopédia livre.

Na estatística, a correção de Bonferroni é um dos vários métodos usados para lidar-se com o problema de comparações múltiplas.

História[editar | editar código-fonte]

A correção de Bonferroni é nomeada em homenagem ao matemático italiano Carlo Emilio Bonferroni por seu uso das desigualdades de Bonferroni.[1] Seu desenvolvimento é frequentemente creditado a Olive Jean Dunn, que descreveu a aplicação do procedimento a intervalos de confiança.[2][3]

Testes de hipóteses, na estatística, são baseados na rejeição de uma hipótese nula caso probabilidade dos dados observados acontecerem ao acaso (estritamente, sob hipóteses nulas) for baixa. Se várias hipóteses forem testadas, a chance de um evento raro aumenta e, logo, a probabilidade de rejeitar incorretamente uma hipótese nula (ou seja, cometer um erro Tipo I) aumenta.[4]

A correção de Bonferroni compensa esse aumento testando cada hipótese individual em um nível de significância maior de onde é o nível alfa geral desejado e é o número de hipóteses.[5] Por exemplo, se uma avaliação estiver testando hipóteses com , então a correção de Bonferroni testaria cada hipótese individual em .

Definição[editar | editar código-fonte]

Considere </img> como uma família de hipóteses e seus p-valores correspondentes. Considere o número total de hipóteses nulas e o número de hipóteses nulas verdadeiras. A taxa de erro de família (do ingles, familywise error rate, FWER) é a probabilidade de rejeitar pelo menos um isto é, de fazer pelo menos um erro do tipo I. A correção de Bonferroni rejeita a hipótese nula para cada , controlando assim a FWER . A prova desse controle decorre da desigualdade de Boole, como segue:

Esse controle não requer nenhuma suposição sobre dependência entre os valores-p ou sobre quantas das hipóteses nulas são verdadeiras.[6]

Extensões[editar | editar código-fonte]

Generalização[editar | editar código-fonte]

Em vez de testar cada hipótese no nível, as hipóteses podem ser testadas em qualquer outra combinação de níveis que somem , desde que o nível de cada teste seja determinado antes de analisar os dados.[7] Por exemplo, para dois testes de hipóteses, um de 0,05 poderia ser mantida realizando um teste em 0,04 e o outro em 0,01.

Intervalos de confiança[editar | editar código-fonte]

A correção de Bonferroni pode ser usada para ajustar intervalos de confiança. Se alguém estabelece </img> intervalos de confiança, e deseja ter um nível de confiança global de , cada intervalo de confiança individual pode ser ajustado ao nível de .[2][3]

Alternativas[editar | editar código-fonte]

Existem outras formas de controlar a taxa de erro da família. Por exemplo, o método de Holm-Bonferroni e a correção de Šidák são considerados procedimentos universalmente mais poderosos do que a correção de Bonferroni. Ao contrário do procedimento de Bonferroni, esses métodos não controlam o número esperado de erros do tipo I por família (a taxa de erro Tipo I por família).[8]

Crítica[editar | editar código-fonte]

Com relação ao controle do FWER, a correção de Bonferroni pode ser conservadora se houver um grande número de testes e / ou se as estatísticas de teste forem correlacionadas positivamente.

A correção vem ao custo de aumentar a probabilidade de produzir falsos negativos, isto é, reduzir o poder estatístico.[9]

Observe que essas críticas se aplicam ao controle do FWER em geral e não são específicas da correção de Bonferroni.

Referências

  1. Bonferroni, C. E., Teoria statistica delle classi e calcolo delle probabilità, Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze 1936
  2. a b «Estimation of the Means for Dependent Variables». Annals of Mathematical Statistics. 29. JSTOR 2237135. doi:10.1214/aoms/1177706374 
  3. a b «Multiple Comparisons Among Means» (PDF). Journal of the American Statistical Association. 56. CiteSeerX 10.1.1.309.1277Acessível livremente. doi:10.1080/01621459.1961.10482090 
  4. Mittelhammer, Ron C.; Judge, George G.; Miller, Douglas J. Econometric Foundations. [S.l.: s.n.] ISBN 978-0-521-62394-0 
  5. Miller, Rupert G. Simultaneous Statistical Inference. [S.l.: s.n.] ISBN 9781461381228 
  6. «Multiple Hypothesis Testing in Genomics». Statistics in Medicine. 33. PMID 24399688. doi:10.1002/sim.6082 
  7. «Detecting patterns in protein sequences». J. Mol. Biol. 239. PMID 8014990. doi:10.1006/jmbi.1994.1407 
  8. «Are per-family Type I error rates relevant in social and behavioral science?». Journal of Modern Applied Statistical Methods. 14 
  9. «A farewell to Bonferroni: the problems of low statistical power and publication bias». Behavioral Ecology. 15. doi:10.1093/beheco/arh107 

Leitura adicional[editar | editar código-fonte]

Ligações externas[editar | editar código-fonte]