Teste Kolmogorov-Smirnov

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Ilustração da estatística de Kolmogorov–Smirnov. A linha vermelha é a função distribuição acumulada, a linha azul é a função distribuição empírica e a seta preta é a estatística K–S.

Em estatística, o teste Kolmogorov–Smirnov (também conhecido como teste KS ou teste K–S) é um teste não paramétrico sobre a igualdade de distribuições de probabilidade contínuas e unidimensionais que pode ser usado para comparar uma amostra com uma distribuição de probabilidade de referência (teste K–S uniamostral) ou duas amostras uma com a outra (teste K–S biamostral).[1] Recebe este nome em homenagem aos matemáticos russos Andrei Kolmogorov e Nikolai Smirnov.

A estatística de Kolmogorov–Smirnov quantifica a distância entre a função distribuição empírica da amostra e a função distribuição acumulada da distribuição de referência ou entre as funções distribuição empírica de duas amostras. A distribuição nula desta estatística é calculada sob a hipótese nula de que a amostra é retirada da distribuição de referência (no caso uniamostral) ou de que as amostras são retiradas da mesma distribuição (no caso biamostral). Em cada caso, as distribuições consideradas sob a hipótese nula são distribuições contínuas, mas não restritas.

O teste K–S biamostral é um dos métodos não paramétricos mais úteis e difundidos para a comparação de duas amostras, já que é sensível a diferenças tanto no local, como na forma das funções distribuição acumulada empírica das duas amostras.[2]

O teste de Kolmogorov–Smirnov pode ser modificado para servir como um teste da qualidade do ajuste. No caso especial do teste da normalidade da distribuição, as amostras são padronizadas e comparadas com uma distribuição normal padrão. Isto equivale a tornar a média e a variância da distribuição de referência iguais aos estimados da amostras, sabendo que usar isto para definir a distribuição de referência específica muda a distribuição nula da estatística. Vários estudos encontraram que, mesmo nesta forma corrigida, o teste é menos potente em avaliar a normalidade do que o teste de Shapiro–Wilk e o teste de Anderson–Darling.[3] Entretanto, estes outros testes também têm suas desvantagens. O teste de Shapiro–Wilk, por exemplo, é conhecido por não funcionar bem em amostras com muitos valores idênticos.

Estatística de Kolmogorov-Smirnov[editar | editar código-fonte]

A função distribuição empírica para observações independentes e identicamente distribuídas é definida como

em que é a função indicadora, igual a 1 se e igual a 0 de outro modo.

A estatística de Kolmogorov–Smirnov para uma dada função distribuição acumulada é

em que é o supremo do conjunto de distâncias. Pelo teorema de Glivenko–Cantelli, se a amostra vier da distribuição , então converge a 0 quase certamente no limite quando vai ao infinito. Kolmogorov fortaleceu este resultado ao oferecer efetivamente a razão desta convergência como mostrado abaixo. O Teorema de Donsker oferece um resultado ainda mais forte.

Na prática, a estatística exige um número relativamente grande de pontos de dados para que se rejeite adequadamente a hipótese nula.

Distribuição de Kolmogorov[editar | editar código-fonte]

A distribuição de Kolmogorov é a distribuição da variável aleatória

em que é a ponte browniana. A função distribuição acumulada de é dada por[4]

que também pode ser expressa pela função teta de Jacobi . Tanto a forma da estatística do teste de Kolmogorov–Smirnov, como sua distribuição assintótica sob a hipótese nula foram publicadas por Kolmogorov,[5] enquanto uma tabela da distribuição foi publicada por Smirnov.[6] Relações de recorrência para a distribuição da estatística do teste em amostras finitas também foram divulgadas por Kolmogorov.[5]

Sob a hipótese nula de que a amostra vem da distribuição hipotetizada ,

em distribuição, em que é a ponte browniana.

Se for contínua, então, sob a hipótese nula, converge para a distribuição de Kolmogorov, que não depende de . Este resultado também pode ser conhecido como teorema de Kolmogorov.

O teste de Kolmogorov–Smirnov para a qualidade do ajuste é construído pelo uso de valores críticos da distribuição de Kolmogorov.[7] A hipótese nula é rejeitada no nível se

em que é encontrado a partir de

A potência assintótica deste teste é 1.

Teste com parâmetros estimados[editar | editar código-fonte]

Se a forma ou os parâmetros de forem determinados a partir dos dados , os valores críticos determinados desta forma são inválidos. Em tais casos, o método de Monte Carlo ou outros métodos podem ser exigidos e as tabelas foram preparadas para alguns casos. Os detalhes para as modificações exigidas para a estatística do teste e para os valores críticos para a distribuição normal e para a distribuição exponencial foram divulgados.[8] Publicações mais recentes incluem a distribuição de Gumbel.[9] O teste de Lillefors representa um caso especial desta questão para a distribuição normal. A transformação do logaritmo pode ajudar a superar casos em que os dados do teste de Kolmogorov parecem não se ajustar ao pressuposto de que veio da distribuição normal.

Distribuição nula discreta[editar | editar código-fonte]

O teste de Kolmogorov–Smirnov deve ser adaptado para variáveis discretas.[10] A forma da estatística do teste permanece igual à do caso contínuo, mas o cálculo de seu valor é mais sutil. Isto pode ser visto quando se computa a estatística do teste entre uma distribuição contínua e uma função de etapa que tem uma descontinuidade em . Em outras palavras, o limite , se existir, é diferente de . Assim, quando se computa a estatística

não fica claro como realocar o limite, a não ser que se saiba o valor limitante da distribuição subjacente.

Teste Kolmogorov-Smirnov biamostral[editar | editar código-fonte]

Ilustração da estatística biamostral de Kolmogorov–Smirnov. As linhas vermelha e azul correspondem a funções distribuição empírica e a seta preta é a estatística K–S biamostral.

O teste Kolmogorov–Smirnov pode também ser usado para testar se duas distribuições de probabilidade unidimensionais subjacentes diferem entre si. Neste caso, a estatística de Kolmogorov–Smirnov é

em que e são as funções distribuição empírica da primeira e da segunda amostra respectivamente e é a função supremo.

A hipótese nula é rejeitada ao nível se

[11]

e são os tamanhos da primeira e da segunda amostras respectivamente. O valor de é dado na tabela abaixo para os níveis mais comuns de [11]

0.10 0.05 0.025 0.01 0.005 0.001
1.22 1.36 1.48 1.63 1.73 1.95

e, em geral, por

O teste biamostral verifica se as duas amostras de dados vêm da mesma distribuição e não especifica qual é esta distribuição comum, isto é, se é normal ou não normal. Tabelas de valores críticos para este caso também foram publicadas.[8][11] Estes valores críticos têm algo em comum com o teste de Anderson–Darling e o teste qui-quadrado, nomeadamente, o fato de que valores mais altos tendem a ser mais raros.[12]

Limites de confiança para a forma da função distribuição[editar | editar código-fonte]

Enquanto o teste Kolmogorov–Smirnov é geralmente usado para testar se uma dada é a distribuição de probabilidade subjacente de , o procedimento pode ser invertido para dar limites de confiança à própria . Caso se escolha um valor crítico da estatística de teste , tal que , então a banda de largura em torno de conterá inteiramente com probabilidade .

Estatística de Kolmogorov–Smirnov em mais de uma dimensão[editar | editar código-fonte]

Um teste Kolmogorov–Smirnov de qualidade do ajuste multivariado e livre de distribuição foi proposto por Ana Justel, Daniel Peña e Rubén Zamar em 1997.[13] O teste usa uma estatística construída pelo uso da transformação de Rosenblatt e um algoritmo é usado para a computação no caso bivariado. Um teste aproximado facilmente computado em qualquer dimensão também é apresentado.

A estatística do teste Kolmogorov–Smirnov precisa ser modificada se um teste semelhante for aplicado a dados multivariados. Ela não pode ser aplicada diretamente porque a diferença máxima entre duas funções distribuição acumulada conjuntas geralmente não é igual à diferença máxima de qualquer uma das funções distribuição complementares. Assim, a diferença máxima será diferente, dependendo se ou ou qualquer um dos dois outros arranjos possíveis for usado. Pode-se exigir que o resultado do teste usado não dependa da escolha feita.

Uma abordagem à generalização da estatística de Kolmogorov–Smirnov para dimensões mais elevadas que leva em conta a preocupação acima consiste em comparar as funções distribuição acumulada das duas amostras com todos os ordenamentos possíveis e tomar o maior conjunto das estatísticas K–S resultantes. Em dimensões, o número de ordenamentos é . Uma variação deste tipo foi proposta por J. A. Peacock[14] e outra por G. Fasano e A. Francischini,[15] ambas comparadas por R. H. C. Lopes.[16] Valores críticos para a estatística do teste podem ser obtidos por simulações, mas isto depende da estrutura de dependência da distribuição conjunta.

Ver também[editar | editar código-fonte]

Referências[editar | editar código-fonte]

  1. Daniel, Wayne W. (30 de junho de 2000). Applied Nonparametric Statistics (em inglês). [S.l.]: Duxbury. ISBN 9780534381943 
  2. Corder, Gregory W.; Foreman, Dale I. (20 de setembro de 2011). Nonparametric Statistics for Non-Statisticians: A Step-by-Step Approach (em inglês). [S.l.]: John Wiley & Sons. ISBN 9781118211250 
  3. Stephens, M. A. (1 de setembro de 1974). «EDF Statistics for Goodness of Fit and Some Comparisons». Journal of the American Statistical Association. 69 (347): 730–737. ISSN 0162-1459. doi:10.2307/2286009 
  4. «Evaluating Kolmogorov's Distribution | Marsaglia | Journal of Statistical Software». doi:10.18637/jss.v008.i18. Consultado em 4 de julho de 2017 
  5. a b Kolmogorov, Andrei (1933). «Sulla determinazione empirica di una legge di distribuzione». Giornale dell'istituto italiano degli attuari. 4: 83-91 
  6. Smirnov, N. (junho de 1948). «Table for Estimating the Goodness of Fit of Empirical Distributions». The Annals of Mathematical Statistics (em inglês). 19 (2): 279–281. ISSN 0003-4851. doi:10.1214/aoms/1177730256 
  7. Stephens, M. A. (1 de dezembro de 1979). «Tests of fit for the logistic distribution based on the empirical distribution function». Biometrika. 66 (3): 591–595. ISSN 0006-3444. doi:10.1093/biomet/66.3.591 
  8. a b Pearson, E. S. and Hartley, H. O., eds. (1972). Biometrika Tables for Statisticians. 2. [S.l.]: Cambridge University Press. pp. 117–123, Tables 54, 55. ISBN 0-521-06937-8 
  9. Shorack, Galen R.; Wellner, Jon A. (1986). Empirical Processes with Applications to Statistics. [S.l.]: Wiley. p. 239. ISBN 047186725X 
  10. Arnold, Taylor B.; Emerson, John W. (2011). «Nonparametric Goodness-of-Fit Tests for Discrete Null Distributions» (PDF). The R Journal. 3 (2): 34–39 
  11. a b c «Critical Values for the Two-sample Kolmogorov-Smirnov test (2-sided)» (PDF). Universidade de Montreal. Consultado em 4 de julho de 2017 
  12. Mehta, Salil (1 de abril de 2014). Statistics Topics (em inglês). [S.l.]: Createspace Independent Pub. ISBN 9781499273533 
  13. Justel, Ana; Peña, Daniel; Zamar, Rubén (15 de outubro de 1997). «A multivariate Kolmogorov-Smirnov test of goodness of fit». Statistics & Probability Letters. 35 (3): 251–259. doi:10.1016/s0167-7152(97)00020-5 
  14. Peacock, J. A. (1 de março de 1983). «Two-dimensional goodness-of-fit testing in astronomy». Monthly Notices of the Royal Astronomical Society. 202 (3): 615–627. ISSN 0035-8711. doi:10.1093/mnras/202.3.615 
  15. Fasano, G.; Franceschini, A. (1 de março de 1987). «A multidimensional version of the Kolmogorov–Smirnov test». Monthly Notices of the Royal Astronomical Society. 225 (1): 155–170. ISSN 0035-8711. doi:10.1093/mnras/225.1.155 
  16. Lopes, R.H.C., Reid, I., Hobson, P.R. (27 de abril de 2007). The two-dimensional Kolmogorov–Smirnov test (PDF). XI International Workshop on Advanced Computing and Analysis Techniques in Physics Research. Amsterdam, the Netherlands 

Ligações externas[editar | editar código-fonte]