Wikipédia:Esplanada/propostas/Bot eliminador (18out2013)

Origem: Wikipédia, a enciclopédia livre.

Bot eliminador (18out2013)

Periodicamente a Categoria:!Páginas para eliminação rápida encontra-se repleta de páginas de páginas obrigando a um grande esforço humano, e parece-me que os bots podem dar uma ajuda. O que proponho é uma resolução genérica, e que depois se discutam aplicações específicas.

Genericamente falando, a comunidade permite que bots possam eliminar páginas que se enquadrem em critérios específicos que salvaguardem um baixo número de erros? Alchimista Fala comigo! 14h52min de 18 de outubro de 2013 (UTC)[responder]

Genericamente eu me sinto mais confortável que um ser humano faça isso. Um ser humano envia para eliminação e outro ser humano verifica e elimina ou não. Assim a chance de erro ou abuso se reduz; se um bot fizer o papel do segundo ser humano, a chance de erros/abusos/injustiças aumentariam.
Pelo visto tem que abrir uma por uma das Categoria:!Páginas para eliminação rápida. Não teria como fazer como a Wikipédia:Páginas para eliminar/Lista que as páginas aparecem empilhadas uma em cima da outra? TheVulcan (discussão) 15h27min de 18 de outubro de 2013 (UTC)[responder]
E se, diante de um grande número de páginas para ER, ao invés de humanos terem de fazer todo o processo, eles só passassem pelas páginas, dessem o nome ao robô e deixassem com ele todo o resto do trabalho? Isso pode ser necessário no futuro, já que, com a Wikidata, é possível que várias páginas migrem para lá.--Mister Sanderson (discussão) 15h39min de 18 de outubro de 2013 (UTC)[responder]
Mas aí estaria confiando em uma única pessoa(o proponente das eliminações). Isso só fará sentido se um robô conseguir ientificar se a página enviada cumpre determinados critérios de eliminação, e no caso de não cumprir esses critérios a página não seria eliminada. TheVulcan (discussão) 16h47min de 18 de outubro de 2013 (UTC)[responder]
Uma solução seria a adição de uma predefinição, que poderia ser incluida num dos gadjets, onde o filtro de edição evitaria que não sysops ou eliminadores a inserissem. Desta forma, não só nas ER's como nas restantes páginas a eliminar, quer por consenso, quer por ESR, o bot poderia eliminar após avaliação por no mínimo dois humanos. Alchimista Fala comigo! 16h58min de 18 de outubro de 2013 (UTC)[responder]

Aplicações práticas[editar código-fonte]

Um dos exemplos onde me parece viável que um bot possa actuar, é na questão dos redirecionamentos. O redirecionamento de xpto para Xpto pode ser eliminado fácilmente por um bot, onde o bot passa por xpto, verifica se tem afluentes, e se não tiver é eliminado. Há a possibilidade de não só eliminar, como corrigir os afluentes, mas ai convém analisar melhor porque pode haver casos onde possa introduzir erros. Outra possibilidade seria a eliminação de artigos curtos, só com 1 ou dois editores ou uma ou duas edições, artigos sem formatação, curtos e possivelmente com expressões problemáticas. Eliminação de artigos que não tivessem passado pelo crivo humano estariam fora deste segundo cenário, ou seja, o bot operaria a partir de páginas marcadas por humanos para eliminação, e excluiria as marcações feitas por bots anti-vandalismo. Outras situações podem ser estudadas, contudo caso haja a percepção por parte da comunidade de que pode ser uma mais valia, começar-se-ia pelos casos mais simples, e evoluindo com o tempo e a maturação do próprio bot. Alchimista Fala comigo! 14h52min de 18 de outubro de 2013 (UTC)[responder]

Não tenho muita confiança de que seria possível a eliminação automatizada dos redirecionamentos. Vide meta:Não elimine redirecionamentos e a recente proposta "Permissão suppressredirect para autorrevisores". Helder 15h04min de 18 de outubro de 2013 (UTC)[responder]
Nesse caso não há grande problema, há sempre redirecionamentos que podem ser eliminados, o que convém é enquadrar o que é um redirecionamento indevido, e quais são os que podem ser eliminados. Se um utilizador criar uma página, e de seguida reparar que o título está incorrecto, move-a, e marca para eliminação o redirecionamento, não me parece haver grande problema nesses casos, e certamente que haverão outros, mas se alguns poderão ou não ser eliminados, o ideal é ir acompanhando essa discussão também. Alchimista Fala comigo! 15h17min de 18 de outubro de 2013 (UTC)[responder]
O grande problema é que evitar que marquem como indevido os redirecionamentos que são úteis. Helder 15h23min de 18 de outubro de 2013 (UTC)[responder]

Pergunta Nunca entendi isso de ficar eliminando redirecionamentos, pra que fazer isso? Não é mais fácil um artigo ser encontrado tendo 10 redirecionamentos para ele do que com 2? Por mim poderiam existir quantos redirecionamentos quiser, quanto mais melhor. Assim os artigos seriam encontrados mais facilmente pela busca, e mais leitores = mais editores = mais edições = artigos com qualidade mais alta. TheVulcan (discussão) 15h33min de 18 de outubro de 2013 (UTC)[responder]

Nem todos os redirecionamentos são corretos. Redirecionar abacate para maçã ajuda a encontrar, mas está errado.--Mister Sanderson (discussão) 15h39min de 18 de outubro de 2013 (UTC)[responder]
Isso uma pessoa sabe, mas um robô programado conseguiria distinguir isso? Se não for possível para um robô identificar e decidir se um redirecionamento é válido ou não, não há como ele substituir um humano nessa tarefa. TheVulcan (discussão) 16h47min de 18 de outubro de 2013 (UTC)[responder]

A questão é andarmos de X em X tempo, para a frente e para trás, pelo que se torna necessário definir claramente e de uma vez por todas o que é um redireccionamento indevido e um redireccionamento desnecessário, se é que não está, para não andarmos aqui a perder tempo em tarefas de manutenção.

Outra questão é que se eliminam sob a regra R1, redireccionamentos para páginas existentes. Depreende-se de com a regra esta escrita que todas as condições têm que se cumpridas, incluindo o redireccionamento ser para páginas inexistentes. Também não percebo a razão de estar na regra, eliminada e inexistente, na prática acho que vai dar ao mesmo. Lijealso (discussão) 16h21min de 18 de outubro de 2013 (UTC)[responder]

No caso de redirecionamentos para páginas inexistentes, outros domínios ou páginas especiais sim, é relativamente fácil para um bot identificar, nos restantes casos de redirects, teria de haver uma clarificação pela comunidade daquilo que o Lije referiu. Ressalvo que por norma, bots não operam em áreas cinzentas, os propósitos devem ser claros, os parâmetros pelos quais se regem igualmente, e o consenso da comunidade idem, portanto a haver qualquer tipo de eliminação por parte de um bot, deve obedecer a esses três critérios. Alchimista Fala comigo! 16h58min de 18 de outubro de 2013 (UTC)[responder]

Acho que alguns casos poderiam mesmo ser tratados por robôs, por exemplo, artigos sem fontes criados por IPs. Tem como verificar automaticamente quando um artigo está nesta categoria? Albmont (discussão) 13h38min de 23 de outubro de 2013 (UTC)[responder]

A criação de artigos sem fontes já está sendo abordada em outro tópico. Helder 17h09min de 23 de outubro de 2013 (UTC)[responder]