Complexidade caso médio

Origem: Wikipédia, a enciclopédia livre.

Em teoria de complexidade computacional, a complexidade de caso médio de um algoritmo é a quantidade de algum recurso computacional (tipicamente tempo) utilizado pelo algoritmo, numa média sobre todas as entradas possíveis. É frequentemente contrastada com a complexidade de pior caso que considera a complexidade máxima do algoritmo sobre todas as entradas possíveis.

Existem três motivações principais para estudar a complexidade de caso médio.[1] Primeiramente, apesar de alguns problemas serem intratáveis no pior caso, as entradas que elicitam esse comportamento podem raramente ocorrer na prática, e portanto a complexidade de caso médio pode ser uma medida mais precisa da performance de um algoritmo. Segundo, a análise de complexidade de caso médio fornece ferramentas e técnicas para gerar instâncias difíceis de problemas que podem ser utilizadas em áreas como criptografia e probabilidade algorítmica. Terceiro, complexidade de caso médio permite diferenciar o algoritmo mais eficiente na prática entre algoritmos equivalentes em complexidade (por exemplo, quicksort).

A análise de caso médio requer uma noção de uma entrada "média" para um algoritmo, o que leva ao problema de conceber uma distribuição de probabilidade sobre as entradas. Alternativamente, um algoritmo probabilístico pode ser usado. A análise de tais algoritmos leva à noção relacionada de uma complexidade esperada.[2]

História[editar | editar código-fonte]

A performance de caso médio de algoritmos tem sido estudada desde que noções modernas de eficiência computacional foram desenvolvidas nos anos 50. A maioria desse trabalho inicial focou em problemas para os quais algoritmos de tempo polinomial de pior caso já eram conhecidos.[3] Em 1973, Donald Knuth[4] publicou o volume 3 de The Art of Computer Programming que inspecionava de modo extenso a performance de caso médio de algoritmos para problemas solucionáveis em tempo polinomial de pior caso, tais como ordenação e descoberta da mediana.

Um algoritmo eficiente para problemas NP-completos é geralmente caracterizado como um que é executado em tempo polinomial para todas as entradas; isso é equivalente à exigir complexidade de pior caso eficiente. Porém, um algoritmo que é ineficiente em um número "pequeno" de entradas ainda pode ser eficiente para a "maioria" das entradas que ocorrem na prática. Portanto, é desejável estudar as propriedades destes algoritmos onde a complexidade de caso médio pode diferenciar da complexidade de pior caso e encontrar métodos para relacionar ambos.

As noções fundamentais de complexidade de caso médio foram desenvolvidas por Leonid Levin em 1986, quando ele publicou um artigo de uma página[5] definindo a complexidade e completude do caso médio enquanto dava um exemplo de um problema completo para distNP, a analogia de caso médio para NP.

Definições[editar | editar código-fonte]

Complexidade de caso médio eficiente[editar | editar código-fonte]

A primeira tarefa é definir precisamente o que se quer dizer por um algoritmo eficiente "na média". Uma tentativa inicial pode definir um algoritmo eficiente de caso médio como um que é executado num tempo polinomial esperado sobre todas as entradas principais. Tal definição possui várias desvantagens: em particular, não é robusta à mudanças ao modelo computacional. Por exemplo, suponha que o algoritmo A é executado em tempo tA(x) com a entrada x e o algoritmo B é executado em tempo tA(x)2 com a entrada x; isto é, B é quadraticamente mais lento que A. Intuitivamente, qualquer definição de eficiência de caso médio deve capturar a ideia de que A é eficiente na média se e somente se B é eficiente na média. No entanto, suponha que as entradas são extraídas aleatoriamente da distribuição uniforme de palavras de tamanho n, e que A é executado em tempo n2 em todas as entradas, exceto a palavra 1n, para a qual A leva um tempo de 2n. Então, é facilmente verificável que o tempo de execução esperado de A é polinomial mas que o tempo esperado de B é exponencial.[3]

Para criar uma definição mais robusta de eficiência de caso médio, faz sentido permitir um algoritmo A executar em tempo maior que polinomial em algumas entradas, mas a fração de entradas nas quais A requer tempo de execução cada vez maior vai se tornando cada vez menor. Essa intuição é capturada na seguinte fórmula para tempo de execução polinomial médio, que equilibra o trade-off polinomial entre tempo de execução e fração de entradas:

para todo n, t, ε > 0 e p polinomial, onde tA(x) denota o tempo de execução do algoritmo A na entrada x.[6] Alternativamente, isto pode escrito como

para alguma constante C, onde n = |x|.[7] Em outras palavras, um algoritmo A tem uma boa complexidade de caso médio is, após ser executado por tA(n) passos, A consegue resolver todas, exceto uma fração de entradas de tamanho n, para algum ε, c > 0.[3]

Problema distribucional[editar | editar código-fonte]

O próximo passo é definir a entrada "média" para um problema particular. Consegue-se isto ao associar as entradas de cada problema com uma distribuição de probabilidade particular. Isto significa que um problema de "caso médio" consiste de uma linguagem L e uma distribuição de probabilidade D, que forma o par (L, D).[7] As duas classes mais comuns de distribuições permitidas são:

  1. Distribuições computáveis em tempo polinomial (P-computável): estas são distribuições para as quais é possível computar a densidade acumulada de uma dada entrada qualquer x. Mais formalmente, dada uma distribuição probabilística μ e uma palavra x ∈ {0, 1}n é possível computar o valor em tempo polinomial.
  2. Distribuições amostráveis em tempo polinomial (P-amostrável): estas são distribuições das quais é possível extrair amostras aleatórias em tempo polinomial. Isso implica que Pr[x] também é computável em tempo polinomial.

Estas duas formulações, apesar de similares, não são equivalentes. Se uma distribuição é P-computável, também é P-amostrável, mas o inverso não é verdadeiro se P ≠ P#P.[7]

AvgP and distNP[editar | editar código-fonte]

Um problema distribucional (L, D) está na classe de complexidade AvgP se existir um algoritmo eficiente de caso médio para L, como definido acima. A classe AvgP é ocasionalmente chamada de distP na literatura.[7]

Um problema distribucional (L, D) está na classe de complexidade distNP se L está em NP e D é P-computável. Quando L está em NP e D é P-amostrável, (L, D) pertence à sampNP.[7]

Juntas, AvgP e distNP define as analogias de caso médio à P e NP, respectivamente.[7]

Reduções entre problemas distribucionais[editar | editar código-fonte]

Sejam (L, D) e (L', D') dois problemas distribucionais. (L, D) se reduz por caso médio à (L', D') (escrito como (L, D) ≤AvgP (L', D')) se existir uma função f tal que, para todo n e sobre uma entrada x, pode ser computada em tempo polinomial em n e

  1. (Corretude) x ∈ L se e somente se f(x) ∈ à L'
  2. (Dominação) Existem polinomiais p e m tais que, para todo n e y,

A condição de dominação reforça a ideia de que se o problema (L, D) é difícil na média, então (L', D') também é difícil na média. Intuitivamente, uma redução deve fornecer uma maneira de resolver uma instância x do problema L ao computar f(x) e alimentar a saída ao algoritmo que resolve L'. Sem a condição de dominação, isso pode não ser possível, já que o algoritmo que resolve L em tempo polinomial em média pode levar um tempo superpolinomial em um número pequeno de entradas, mas f pode mapear tais entradas a um conjunto muito maior de D' de modo que o algoritmo A' não consiga ser executado em tempo polinomial, em média. A condição de dominação permite apenas que tais palavras ocorram polinomialmente com tanta frequência quanto em D'.[6]

Problemas distNP-completos[editar | editar código-fonte]

O análogo de caso médio à NP-completude é a distNP=completude. Um problema distribucional (L', D') é distNP-completo se (L', D') está em distNP e para todo (L, D) em distNP, (L, D) é redutível por caso médio à (L', D').[7]

Um exemplo de um problema distNP-completo é o Problema da Parada Limitado, BH, definido como:

BH = {(M,x,1t) : M é uma máquina de Turing não-determística que aceita x em ≤ t passos}[7]

Em seu artigo original, Levin mostrou um exemplo de um problema de preenchimento de ladrilhos que é NP-completo em caso médio.[5] Uma pesquisa de problemas distNP-completos está disponível online.[6]

Uma área de pesquisa ativa envolve encontrar novos problemas distNP completos. Entretanto, encontrar tais problemas pode ser complicado devido a um resultado de Gurevich que mostra que qualquer problema distribucional com uma distribuição plana não pode ser distNP-completo a menos que EXP = NEXP..[8] (Uma distribuição plana μ é uma em que existe um ε > 0 tal que para qualquer x, μ(x) ≤ 2-|x|ε.) Um resultado de Livne mostra que todos os problemas NP naturais possuem versões distNP-completos.[9] Entretanto, o objetivo de achar um problema distribucional natural que é distNP-completo ainda não foi alcançado.[10]

Aplicações[editar | editar código-fonte]

Algoritmos de ordenação[editar | editar código-fonte]

Como mencionado acima, grande parte dos trabalhos iniciais relacionados à complexidade de caso médio focou em problemas para os quais algoritmos de tempo polinomial já existiam, tais como ordenação. Por exemplo, muitos algoritmos de ordenação que utilizam aleatoriedade, como quicksort, tem um tempo de execução de pior caso de O(nlog(n)), onde n é o tamanho da entrada a ser ordenada.[2]

Criptografia[editar | editar código-fonte]

Para a maioria dos problemas, a análise de complexidade de caso médio é empreendida para encontrar algoritmos eficientes para um problema que é considerado difícil no pior caso. Em aplicações criptográficas, entretanto, o oposto é verdadeiro: a complexidade de pior caso é irrelevante; ao invés disso, queremos uma garantia de que a complexidade de caso médio de todo algoritmo que "quebra" o esquema criptográfico é ineficiente.[11]

Portanto, qualquer esquema criptográfico seguro confia na existência de funções de mão única.[3] Apesar de a existência de funções de mão única ainda ser um problema em aberto, muitas candidatas à funções de mão única são baseadas em problemas NP-difíceis, tais como fatoração de inteiros ou computar o logaritmo discreto. Note que não é desejável a função candidata ser NP-completa já que isso iria apenas garantir que é improvável existir um algoritmo eficiente para solucionar o problema no pior caso; o que na verdade queremos é uma garantia de que nenhum algoritmo eficiente possa resolver o problema sobre entradas aleatórias (ex. o caso médio). Na verdade, tanto a fatorização de inteiros quanto o logaritmo discreto estão em NP ∩ Co-NP, e portanto acredita-se que não são NP-completos.[7] O fato de que toda a criptografia é predicada na existência de problemas de caso médio intratáveis em NP é uma das motivações principais para o estudo da complexidade de caso médio.

Outros resultados[editar | editar código-fonte]

Em 1990 Impagliazzo e Levin mostraram que se existe um algoritmo eficiente de caso médio para um problema distNP-completo sob a distribuição uniforme, então existe um algoritmo de caso médio para todo problema em NP sob qualquer distribuição amostrável em tempo polinomial.[12] Aplicando esta teoria a problemas de distribuição naturais permanece sendo uma ótima questão em aberto.[3]

Em 1992 Ben-David et-al. mostraram que se todas as linguagens em distNP possuem algoritmos de decisão que são bons em média, elas também possuem algoritmos de busca que são bons em média. Além disso, eles mostram que esta conclusão continua válida sob uma suposição mais fraca: se toda linguagem em NP é fácil em média para algoritmos de decisão em respeito à distribuição uniforme, então é também fácil em média para algoritmos de busca em respeito à distribuição uniforme.[13] Portanto, funções criptográficas de mão única podem existir somente se existem problemas distNP sobre a distribuição uniforme que são difíceis em média para os algoritmos de decisão.

Em 1993 Feigenbaum e Fortnow mostraram que não é possível provar, sob reduções aleatórias não-adaptativas, que a existência de um algoritmo bom em média para um problema distNP-completo sob a distribuição uniforme implica na existência de algoritmos eficientes no pior caso para todos os problemas em NP.[14] Em 2003, Bogdanov e Trevisan generalizaram este resultado para reduções não adaptativas arbitrárias.[15] Estes esultados mostram que é improvável que qualquer associação pode ser feita entre complexidade de caso médio e complexidade de pior caso via reduções.[3]

Ver também[editar | editar código-fonte]

Referências

  1. O. Goldreich and S. Vadhan, Special issue on worst-case versus average-case complexity, Comput. Complex. 16, 325–330, 2007.
  2. a b Cormen, Thomas H.; Leiserson, Charles E., Rivest, Ronald L., Stein, Clifford (2009) [1990]. Introduction to Algorithms (3rd ed.). MIT Press and McGraw-Hill. ISBN 0-262-03384-4.
  3. a b c d e f A. Bogdanov and L. Trevisan, "Average-Case Complexity," Foundations and Trends in Theoretical Computer Science, Vol. 2, No 1 (2006) 1–106.
  4. D. Knuth, The Art of Computer Programming. Vol. 3, Addison-Wesley, 1973.
  5. a b L. Levin, "Average case complete problems," SIAM Journal on Computing, vol. 15, no. 1, pp. 285–286, 1986.
  6. a b c J. Wang, "Average-case computational complexity theory," Complexity Theory Retrospective II, pp. 295–328, 1997.
  7. a b c d e f g h i S. Arora and B. Barak, Computational Complexity: A Modern Approach, Cambridge University Press, New York, NY, 2009.
  8. Y. Gurevich, "Complete and incomplete randomized NP problems", Proc. 28th Annual Symp. on Found. of Computer Science, IEEE (1987), pp. 111–117.
  9. N. Livne, "All Natural NPC Problems Have Average-Case Complete Versions," Computational Complexity, to appear. Preliminary version in ECCC, TR06-122, 2006.
  10. O. Goldreich, "Notes on Levin's theory of average-case complexity," Technical Report TR97-058, Electronic Colloquium on Computational Complexity, 1997.
  11. J. Katz and Y. Lindell, Introduction to Modern Cryptography (Chapman and Hall/Crc Cryptography and Network Security Series), Chapman and Hall/CRC, 2007.
  12. R. Impagliazzo and L. Levin, "No Better Ways to Generate Hard NP Instances than Picking Uniformly at Random," in Proceedings of the 31st IEEE Sympo- sium on Foundations of Computer Science, pp. 812–821, 1990.
  13. S. Ben-David, B. Chor, O. Goldreich, and M. Luby, "On the theory of average case complexity," Journal of Computer and System Sciences, vol. 44, no. 2, pp. 193–219, 1992.
  14. J. Feigenbaum and L. Fortnow, "Random-self-reducibility of complete sets," SIAM Journal on Computing, vol. 22, pp. 994–1005, 1993.
  15. A. Bogdanov and L. Trevisan, "On worst-case to average-case reductions for NP problems," in Proceedings of the 44th IEEE Symposium on Foundations of Computer Science, pp. 308–317, 2003.

Leitura adicional[editar | editar código-fonte]

A literatura da complexidade de caso médio inclui os seguintes trabalhos: