Valor-p

Origem: Wikipédia, a enciclopédia livre.
(Redirecionado de Valor p)
Ir para: navegação, pesquisa

Na estatística clássica, o valor-p, p-value ou nível descritivo, é a probabilidade de se obter uma estatística de teste igual ou mais extrema que aquela observada em uma amostra, sob a hipótese nula. Por exemplo, em testes de hipótese, pode-se rejeitar a hipótese nula a 5% caso o valor-p seja menor que 5%. Assim, uma outra interpretação para o valor-p, é que este é menor nível de significância com que não se rejeitaria a hipótese nula. Em termos gerais, um valor-p pequeno significa que a probabilidade de obter um valor da estatística de teste como o observado é muito improvável, levando assim à rejeição da hipótese nula.

Em um teste clássico de hipóteses, são definidas duas hipóteses, a nula (H0) e a alternativa (HA). Em muitas aplicações da estatística, convenciona-se definir a hipótese alternativa como a hipótese formulada pelo pesquisador, enquanto a hipótese nula é o seu complemento. A princípio, a hipótese nula é considerada a verdadeira. Ao confrontarmos a hipótese nula com os achados de uma amostra aleatória tomada de uma população de interesse, verifica-se a sua plausibilidade em termos probabilísticos, o que nos leva a rejeitarmos ou não H0. Se não rejeitamos H0, tomamo-la como verdadeira; caso contrário, tomamos HA como verdadeira.

No entanto, por utilizarmos nesta tomada de decisão uma amostra (uma parte da população) e não a população inteira, podemos cometer dois tipos de erro. Cometemos um erro tipo I quando rejeitamos H0 e H0 é verdadeira, e cometemos um erro tipo II quando não rejeitamos H0 e H0 é falsa. A tabela abaixo descreve estas situações.

A hipótese H0 é verdadeira A hipótese H0 é falsa
Rejeita-se H0 Erro do tipo I sem erro
Não se rejeita H0 sem erro Erro do tipo II

A probabilidade de cometermos um erro tipo I é chamada de nível de significância, denotado pela letra grega \alpha. O nível de significância é geralmente determinado pelo pesquisador antes da coleta dos dados. Em muitas aplicações da estatística, o nível de significância é tradicionalmente fixado em 0,05.1

Com base nestes conceitos, podemos definir o valor-p como a menor escolha que teríamos feito para o nível de significância, de forma que rejeitaríamos H0. Por exemplo, vamos supor que o nível de significância foi fixado em \alpha = 0,05. Um valor-p igual a 0,20 indica que nós teríamos rejeitado H0 se tivéssemos escolhido um nível de significância de 0,20, ao menos. Como escolhemos \alpha = 0,05, não rejeitamos H0. Isto leva a uma regra simplista, mas usual, onde rejeitamos H0 se o valor-p é menor que \alpha e não rejeitamos H0 caso contrário.

É preciso muita cautela na interpretação de um valor-p, dado que esta medida é bastante influenciada pelo tamanho da amostra. Amostras grandes tendem a produzir valores-p pequenos, ainda que o efeito observado não tenha grande importância prática, enquanto amostras pequenas tendem a produzir valores-p grandes, ainda que exista um importante efeito em um ponto de vista prático.2 Por isso, o uso dos valores-p nas pesquisas médicas tem sido bastante criticado por vários autores.3 4

Enganos comuns sobre o valor-p[editar | editar código-fonte]

  • O valor-p não é a probabilidade da hipótese nula de um teste ser verdadeira.
  • O valor-p não é a probabilidade de um dado resultado ter sido obtido de um "acaso".
  • O valor-p não é a probabilidade da hipótese nula ter sido enganosamente rejeitada.
  • A magnitude do valor-p não indica o tamanho ou a importância de um efeito observado. Por exemplo, em uma pesquisa clínica onde são comparados dois tratamentos, um valor-p bastante pequeno não é um indicador de que existe uma grande diferença entre os efeitos dos tratamentos comparados.
  • Valor-p e nível de significância não são sinônimos.5 O valor-p é sempre obtido de uma amostra, enquanto o nível de significância é geralmente fixado antes da coleta dos dados.

Ver também[editar | editar código-fonte]

Referências

  1. Gauvreau K, Pagano M. Why 5%? Nutrition 1994;10(1):93-4.
  2. Altman DG, Bland JM. Absence of evidence is not evidence of absence. British Medical Journal 1995; 311:485.
  3. Grimes DA, Schulz KF. An overview of clinical research: the lay of the land. The Lancet 2002; 359:57-61.
  4. Gardner MJ, Altman DG. Confidence intervals rather than P values: estimation rather than hypothesis testing. British Medical Journal (Clin Res Ed) 1986;292(6522):746-50.
  5. Hubbard R. The widespread misinterpretation of p-values as error probabilities. Journal of Applied Statistics 2011 [Ahead of print].