Wikipédia:Projetos/Avisos aos usuários/Testes

Origem: Wikipédia, a enciclopédia livre.
Ir para: navegação, pesquisa
Atalho:
WP:AUTESTE

Esta página serve para centralizar as medidas na Wikipédia lusófona para melhorar a qualidade dos avisos nas páginas de discussão de usuários. Podem ser encontradas ligações para este projecto noutras Wikipédias no cross-wiki hub do Meta.

Âmbito[editar | editar código-fonte]

O objectivo desta página é quantificar a eficácia de diferentes predefinições para páginas de discussão de usuários através de testes aleatórios. Isto não engloba a criação de novas categorias de avisos ou a sua organização de forma eficiente, mas sim a melhoria da qualidade dos nossos actuais métodos de comunicação.

Pretendemos implementar pequenas melhorias nas mensagens que enviamos aos editores, de forma a encorajar mais editores honestos e desencorajar vândalos evidentes, spammers e outros editores com má-vontade.

Participantes[editar | editar código-fonte]

Assine neste espaço caso deseje ser notificado sobre actualizações dos testes.

  1. Vitor Mazuco Msg 23h25min de 13 de janeiro de 2012 (UTC)
  2. Chico (discussão) 09h19min de 17 de janeiro de 2012 (UTC)
  3. Rjclaudio msg 11h54min de 17 de janeiro de 2012 (UTC)
  4. Steven (WMF) (discussão) 00h25min de 14 de fevereiro de 2012 (UTC)
  5. Oona (WMF) (discussão) 14h17min de 10 de agosto de 2012 (UTC)

Tarefas[editar | editar código-fonte]

Qualquer contribuição para simplificar e tornar os avisos mais acessíveis e amigáveis é bem-vinda. Mais concretamente, pode:

  • inserir link Wikipedia:WikiProject user warnings/Testing/Draft space|Draft > Elaborar novas predefinições ou avaliar as predefinições actualmente em elaboração e sugerir melhorias no seu conteúdo ou estrutura. Procuramos reduzir o inserir link tamanho dos avisos, mas as predefinições devem ser na mesma compatíveis com as boas práticas de link design guidelines e link usage and layout
  • inserir user warnings/test Sugerir que predefinições devem ser testadas em seguida e que mudanças devem ser feitas.
  • Ajudar na análise das informações recolhidas. Estamos a usar vários métodos, tanto com estatísticas quantitativas como link para coding ciêcnias sociais
  • Recrutar mais participantes.

Calendarização de testes[editar | editar código-fonte]

As predefinições têm sido testadas nos seguintes locais.

  • inserir lista de links (Huggle / Twinkle / Shared Ips etc)

Cada uma destas páginas possui listas e datas de todas as predefinições testadas, incluindo os resultados, caso estejam disponíveis. De seguida apresentam-se as tabelas de rastreio com datas de início e término. Para testes noutros projectos que não a Wikipédia Portuguesa, por favor veja a página central no Meta.

Testes completos[editar | editar código-fonte]

Nome do teste Sumário Data de início Data de término Duração Predefinições de rastreio Dados Resultados (link)
Huggle {{Uw-vandal-rand1}} 27-10-2011 28-11-2011 {{Z1}}, {{Z2}}, {{z3}} meta
boas vindas Boas vindas a usuários registrados 01/02/2012 13/03/2012 {{Z4}}, {{Z5}} meta

A decorrer[editar | editar código-fonte]

Nome do teste Sumário Data de início Data de término Duração Predefinições de rastreio Dados Resultados (link)

Testes planeados[editar | editar código-fonte]

Nome do teste Sumário Data de início Data de término Duração Predefinições de rastreio Dados Resultados (link)

Método de teste[editar | editar código-fonte]

Apresentam-se aqui os requerimentos para conduzir testes A/B comparativos de qualquer predefinição para páginas de usuário. A realização de experiências aleatórias permite-nos obter informação de base acerca de que tipo de conteúdos são mais eficazes para alcançar os objectivos propostos. Aquilo que vai necessitar é...

  1. Um elemento de aleatriedade que forneça todas as predefinições ao seu teste. Esta é a predefinição que deve ser incluída na configuração de qualquer bot ou ferramenta que esteja a usar para executar os testes, e que forneça de forma aleatória uma predefinição através de uma funçao sintática.
  2. Um controle, normalmente a predefinição padrão existente. Repare que deve replicar o padrão numa nova predefinição em vez de usar a actual página da predefinição, de modo a evitar a inclusão de réplicas do padrão no seu teste.
  3. Uma nova versão ou versões das predefinições que queira testar. Tente usar um nome canónico que corresponda ao tipo, propósito e nível do aviso no qual esteja interessado.
  4. Uma predefinição de rastreio Z-número para todas as predefinições a serem testadas. Se não incluir um Z-número próprio em cada predefinição, irá perder o rasto dos eventos testados assim que forem substituídos.

Nalguns casos, como em bots nos quais todas as contribuições têm origem na mesma conta, este método pode ser bastante simplificado.

Análise[editar | editar código-fonte]

Até agora, temos usado um método misto tanto de mediação quantitativa como de avaliação qualitativa. Caso queira ajudar a classificar e analisar os testes, por favor inscreva-se na secção acima. Os resultados dos testes de todos os projectos estão disponíveis aqui.