Saltar para o conteúdo

Ordenação por comparação

Origem: Wikipédia, a enciclopédia livre.
Ordenar um conjunto de pesos com os pesos não rotulados usando apenas uma balança com escala de equilíbrio exige um algoritmo de ordenação de comparação

Um algoritmo de comparação é um tipo de algoritmo de ordenação que lê apenas os elementos da lista através de uma operação de comparação abstrata única (muitas vezes um operador "menor ou igual a"), que determina qual dos dois elementos devem ocorrer em primeiro lugar na lista final de classificação. A única exigência é que o operador cumpra a duas das propriedades de uma ordem total:

  1. se ab e bc então ac (transitividade)
  2. para todo a e b, ou ab ou ba (totalidade ou tricotomia).

É possível que que ocorra que tanto ab quanto ba; neste caso, tanto um quanto outro podem vir em primeiro lugar na lista de ordenação. Em uma ordenação estável, a ordem de entrada determina a ordem de classificação neste caso[1].

Uma metáfora para pensar sobre o tipo de comparação é que alguém tenha um conjunto de pesos não rotulados e uma balança com escala. Seu objetivo é alinhar os pesos em ordem de seu peso, sem qualquer informação, exceto a obtida colocando-se dois pesos na balança e vendo qual deles é mais pesado (ou se ambos tem o mesmo peso).

Um bubble sort, um algoritmo de ordenação que continuamente passa por uma lista, trocando itens até que eles apareçam na ordem correta.

Alguns dos tipos de comparação mais conhecidos incluem:

Alguns exemplos de algoritmos de ordenação que não são algoritmos de comparação são:

Os limites de performance e as vantagens das diferentes técnicas de ordenação

[editar | editar código-fonte]

Há limites fundamentais sobre o desempenho dos algoritmos de comparação. Um algoritmo de comparação deve ter um limite inferior de Ω(n log n) operações de comparação[2]. Esta é uma consequência da escassa informação disponível, através de comparações sozinhas - ou, dito de outra forma, da vaga estrutura algébrica dos conjuntos totalmente ordenados. Nesse sentido, merge sort, heapsort e introsort são assintoticamente ótimos em termos de número de comparações que devem realizar, embora esta métrica negligencie outras operações. As três ordenações que não são por comparação anteriores atingem O ( n) de desempenho por meio de outras operações de comparações, o que lhes permite contornar este limite inferior (assumindo que os elementos são de tamanho constante).

No entanto, ordenações por comparação oferecem a notável vantagem de que o controle sobre a função de comparação permite a triagem dos muitos tipos de dados diferentes e um bom controle sobre a forma como a lista é ordenada. Por exemplo, revertendo o resultado da função de comparação permite que a lista seja ordenada ao contrário; por exemplo, pode-se classificar uma lista de tuplas em ordem lexicográfica simplesmente criando uma função de comparação que compara cada parte na seqüência:

function comparaTupla((aEsquerdo, bEsquerdo, cEsquerdo), (aDireito, bDireito, cDireito))
    if aEsquerdo ≠ aDireito
        return compare(aEsquerdo, aDireito)
    else if bEsquerdo ≠ bDireito
        return compare(bEsquerdo, bDireito)
    else
        return compare(cEsquerdo, cDireito)

A notação Ternário balanceado permite que sejam feitas comparações em uma única etapa, cujo resultado será um dos três: "menor que", "maior que" ou "igual a".

Ordenações por comparação geralmente se adaptam mais facilmente à ordens complexas, tais como a ordem dos números de ponto flutuante. Além disso, uma vez que uma função de comparação está escrita, qualquer tipo de comparação pode ser usada sem qualquer modificação; Ordenações que não são por comparação não exigem, geralmente, versões especializadas para cada tipo de dados.

Essa flexibilidade, juntamente com a eficiência dos algoritmos de ordenação por comparação acima em computadores modernos, levou a ampla preferência por ordenações por comparação, na maioria dos trabalhos práticos.

Número de comparações necessárias para classificar uma lista

[editar | editar código-fonte]

O número de comparações que o algoritmo de ordenação por comparação exige aumenta na proporção de , onde é o número de elementos para classificar. Este limite é assintoticamente apertado:

Dada uma lista de números distintos (podemos assumir isso, porque esta é uma análise de pior caso), existem fatorial de n permutações exatamente um dos quais é a lista em ordem de classificação. O algoritmo de ordenação deve obter informações suficientes a partir de comparações para identificar as permutações corretas. Se o algoritmo sempre termina após no máximo f(n) passos, não se pode distinguir mais de 2f(n) casos porque as chaves são distintas e cada comparação tem apenas dois resultados possíveis. Por isso,

, ou equivalentemente

Pela aproximação de Stirling, sabemos que é . isso proporciona a parte inferior do argumento.

Um limite superior idêntico decorre da existência de algoritmos que atinjam este limite, no pior caso.

O argumento acima fornece um absoluto, ao invés de apenas um limite inferior assintótico sobre o número de comparações, a saber comparações. Este limite inferior é razoavelmente bom (pode ser abordado dentro de uma tolerância linear por um simples merge sort), mas é conhecido por ser inexato. Por exemplo, , mas o número mínimo de comparações para ordenar 13 elementos foi provado ser 34[3].

Determinar o número exato de comparações necessárias para ordenar um determinado número de entradas é um problema computacionalmente difícil até mesmo para pequenos n, e nenhuma fórmula simples para a solução é conhecida.

Limite inferior para o número médio de comparações

[editar | editar código-fonte]

Um limite semelhante se aplica ao número médio de comparações. Assumindo que

  • todas as chaves são distintas, ou seja, todas as comparações darão tanto a>b ou a<b, e
  • a entrada é uma permutação aleatória, escolhida de modo uniforme a partir do conjunto de todas as permutações possíveis de n elementos, é impossível determinar qual ordem de entrada terá menos de log2(n!) comparações em média.

Isso pode ser mais facilmente visto usando conceitos da teoria da informação. A entropia de Shannon de tal permutação aleatória é de log2(n!) bits. Uma vez que a comparação só pode dar dois resultados, a quantidade máxima de informação que fornece é 1 bit. Após k comparações a entropia remanescente da permutação, tendo em conta os resultados destas comparações, é de, pelo menos log2(n!) - k bits em média. Para realizar a ordenação, a informação completa é necessária, logo para a entropia restante deve ser 0. Daqui se conclui que k deve ser pelo menos log2(n!).

Note que este difere do argumento do pior caso do exemplo acima, na medida em que não permite arredondamento para o número inteiro mais próximo. Por exemplo, para n = 3, o limite inferior para o pior caso é 3, o limite inferior para o caso médio, como mostrado acima é de aproximadamente 2,58, enquanto o maior limite inferior para o caso médio é de 8/3, aproximadamente 2,67.

No caso em que vários itens podem ter a mesma chave, não há nenhuma interpretação estatística óbvia para o termo "caso médio", portanto, um argumento como o acima não pode ser aplicado sem fazer hipóteses específicas sobre a distribuição de chaves.

Referências

  1. Ziviani, Nivio (1993). Projeto de Algoritmos. Com implementações em Pascal e C. São Paulo: Pioneira. 69 páginas. CDD 005.1 
  2. http://planetmath.org/encyclopedia/LowerBoundForSorting.html
  3. Marcin Peczarski: The Ford-Johnson algorithm is still unbeaten for less than 47 elements. Inf. Process. Lett. 101(3): 126-128 (2007) doi:10.1016/j.ipl.2006.09.001