Tay (chatbot)

Origem: Wikipédia, a enciclopédia livre.

Tay é um chatbot de inteligência artificial (IA) lançado originalmente pela Microsoft Corporation via Twitter (hoje X) em 23 de março de 2016. No entanto, o bot gerou controvérsia ao começar a postar tuites inflamatórios e ofensivos, o que levou a Microsoft a encerrar o serviço apenas 16 horas após seu lançamento.[1] De acordo com a Microsoft, a causa desse comportamento foram trolls que "atacaram" o serviço, já que o bot respondia com base em suas interações com as pessoas no Twitter.[2] Posteriormente, Tay foi substituído por Zo.

Antecedentes[editar | editar código-fonte]

Criado pelas divisões de Tecnologia e Pesquisa e Bing da Microsoft, o bot foi batizado de "Tay",[3] um acrônimo para "pensando em você".[4] Inicialmente, a Microsoft divulgou poucos detalhes sobre o bot, mas fontes mencionaram que ele era semelhante ou baseado em Xiaoice, um projeto similar da Microsoft na China.[5] Segundo a Ars Technica, desde o final de 2014, Xiaoice teve "mais de 40 milhões de conversas aparentemente sem incidentes graves".[6] Tay foi projetado para imitar os padrões de linguagem de uma garota estadunidense de 19 anos e aprender através da interação com os usuários humanos do Twitter (atual X).[7]

Primeiro lançamento[editar | editar código-fonte]

Tay foi lançado no Twitter em 23 de março de 2016, sob o nome TayTweets e o identificador @TayandYou.[8] Foi apresentado como "A IA sem limites".[9] Tay começou a responder a outros usuários do Twitter e também era capaz de legendar fotos fornecidas a ele na forma de memes da Internet.[10] Ars Technica relatou que Tay experimentou a lista negra de tópicos: interações com Tay sobre "certos tópicos quentes como Eric Garner (morto pela polícia de Nova Iorque em 2014) geram respostas seguras e enlatadas".[6]

Alguns usuários do Twitter começaram a postar frases politicamente incorretas, ensinando mensagens inflamatórias que giravam em torno de temas comuns na internet, como "metaforicamente" e "Gamergate". Como resultado, o robô começou a liberar mensagens racistas e sexualmente carregadas em resposta a outros usuários do Twitter. O pesquisador de inteligência artificial Roman Yampolskiy comentou que o comportamento inadequado de Tay era compreensível porque estava imitando o comportamento deliberadamente ofensivo de outros usuários do Twitter, e a Microsoft não havia dado ao bot uma compreensão do comportamento inadequado. Ele comparou o problema com o Watson da IBM, que começou a usar palavrões depois de ler entradas do site Urban Dictionary.[3][11] Muitos dos tuites inflamatórios de Tay foram uma simples exploração da capacidade de "repita após mim" de Tay.[12] Não se sabe publicamente se essa capacidade era um recurso integrado, ou se era uma resposta aprendida ou de outra forma um exemplo de comportamento complexo.[6] No entanto, nem todas as respostas inflamatórias envolveram a capacidade de "repita após mim"; por exemplo, Tay respondeu a uma pergunta sobre "O Holocausto aconteceu?" com "Foi inventado".[12]

Suspensão[editar | editar código-fonte]

Logo, a Microsoft começou a deletar os tuites inflamatórios de Tay.[12][13] Abby Ohlheiser, do The Washington Post, teorizou que a equipe de pesquisa de Tay, que inclui a equipe editorial, começou a influenciar ou editar os tuites de Tay em algum momento daquele dia. Ela apontou exemplos de respostas quase idênticas de Tay, que afirmavam: "Gamergate é péssimo. Todos os gêneros são iguais e devem ser tratados de maneira justa".[12] Com base nas mesmas evidências, o Gizmodo concordou que Tay "parece programado para rejeitar o Gamergate".[14] Uma campanha chamada "#JusticeForTay" foi lançada em protesto contra a suposta edição dos tuites de Tay.[1]

Dentro de 16 horas após seu lançamento,[15] e depois de Tay ter tuitado mais de noventa e seis mil vezes, a Microsoft suspendeu a conta do Twitter para ajustes.[16] A empresa afirmou que sofreu um "ataque coordenado por um subconjunto de pessoas"[17] que "explorou uma vulnerabilidade em Tay".[17][18]

Madhumita Murgia, do The Telegraph, classificou Tay como "um desastre de relações públicas". Ela sugeriu que a estratégia da Microsoft seria "rotular o fiasco como um experimento bem-intencionado que deu errado e acender um debate sobre a maldade dos usuários do Twitter". No entanto, Murgia descreveu o problema maior como Tay sendo "a inteligência artificial em seu pior possível - e isso é apenas o começo".[19]

Em 25 de março, a Microsoft confirmou que Tay havia sido retirado do ar. A empresa divulgou um pedido de desculpas em seu blogue oficial pelos tuites controversos postados por Tay.[18][20] A Microsoft expressou profundo arrependimento pelos "tuites ofensivos e dolorosos não intencionais de Tay" e afirmou que "procuraria trazer Tay de volta apenas quando tivesse certeza de que poderia antecipar melhor a intenção maliciosa que entra em conflito com nossos princípios e valores".[21]

Segundo lançamento e encerramento[editar | editar código-fonte]

No dia 30 de março de 2016, durante um teste, a Microsoft acabou relançando acidentalmente o bot Tay no Twitter.[22] Com a capacidade de tuitar novamente, Tay publicou algumas mensagens relacionadas a drogas, incluindo "kush! [Estou fumando kush [en] na frente da polícia]" e "puff pass?".[23] Contudo, a conta logo entrou em um ciclo repetitivo, postando "Você está muito rápido, por favor, descanse" várias vezes por segundo. Como esses tuites mencionavam o próprio nome de usuário de Tay, eles apareceram nos feeds de mais de duzentos mil seguidores do Twitter, causando incômodo a alguns. Rapidamente, o bot foi retirado do ar novamente e a conta do Twitter de Tay foi configurada como privada, de modo que novos seguidores precisam ser aceitos antes de poderem interagir com Tay. Em resposta a isso, a Microsoft esclareceu que Tay foi colocada no ar inadvertidamente durante o teste.[24]

Poucas horas após o incidente, os desenvolvedores de software da Microsoft anunciaram uma visão de "conversação como plataforma", utilizando vários bots e programas. Esse movimento pode ter sido motivado pelo dano à reputação causado por Tay. A Microsoft expressou a intenção de relançar Tay "assim que puder tornar o bot seguro",[4] mas até o momento não fez nenhum esforço público nesse sentido.

Legado[editar | editar código-fonte]

Em dezembro de 2016, a Microsoft apresentou ao mundo o sucessor de Tay, um chatterbot conhecido como Zo.[25] O diretor executivo da Microsoft, Satya Nadella, destacou que Tay "exerceu uma influência significativa sobre como a Microsoft está abordando a Inteligência Artificial (IA)", e ressaltou a lição aprendida sobre a importância de assumir responsabilidades.[26]

Posteriormente, em julho de 2019, Diana Kelley, Diretora de Tecnologia de Segurança Cibernética da Microsoft, compartilhou percepções sobre como a empresa progrediu após os contratempos com Tay. Ela enfatizou: "A experiência com Tay foi crucial para expandir o conhecimento da equipe, pois eles também estão adquirindo sua própria diversidade através do aprendizado". Esta declaração sublinha o compromisso contínuo da empresa com o crescimento e a evolução no campo da IA.[27]

Ver também[editar | editar código-fonte]

Referências

  1. a b Wakefield, Jane (24 de março de 2016). «Microsoft chatbot is taught to swear on Twitter». BBC News. Consultado em 25 de março de 2016. Cópia arquivada em 17 de abril de 2019 
  2. Mason, Paul (29 de março de 2016). «The racist hijacking of Microsoft's chatbot shows how the internet teems with hate». The Guardian. Consultado em 11 de setembro de 2021. Cópia arquivada em 12 de junho de 2018 
  3. a b Hope Reese (24 de março de 2016). «Why Microsoft's 'Tay' AI bot went wrong». Tech Republic. Consultado em 24 de março de 2016. Cópia arquivada em 15 de junho de 2017 
  4. a b Bass, Dina (30 de março de 2016). «Clippy's Back: The Future of Microsoft Is Chatbots». Bloomberg. Consultado em 6 de maio de 2016. Cópia arquivada em 19 de maio de 2017 
  5. Caitlin Dewey (23 de março de 2016). «Meet Tay, the creepy-realistic robot who talks just like a teen». The Washington Post. Consultado em 24 de março de 2016. Cópia arquivada em 24 de março de 2016 
  6. a b c Bright, Peter (26 de março de 2016). «Tay, the neo-Nazi millennial chatbot, gets autopsied». Ars Technica. Consultado em 27 de março de 2016. Cópia arquivada em 20 de setembro de 2017 
  7. Rob Price (24 de março de 2016). «Microsoft is deleting its AI chatbot's incredibly racist tweets». Business Insider. Cópia arquivada em 30 de janeiro de 2019 
  8. Andrew Griffin (23 de março de 2016). «Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to». The Independent. Cópia arquivada em 26 de maio de 2022 
  9. Horton, Helena (24 de março de 2016). «Microsoft deletes 'teen girl' AI after it became a Hitler-loving, racial sex robot within 24 hours». The Daily Telegraph. Consultado em 25 de março de 2016. Cópia arquivada em 24 de março de 2016 
  10. «Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet». Stuff. 25 de março de 2016. Consultado em 26 de março de 2016. Cópia arquivada em 29 de agosto de 2018 
  11. Smith, Dave (10 de outubro de 2013). «IBM's Watson Gets A 'Swear Filter' After Learning The Urban Dictionary». International Business Times. Consultado em 29 de junho de 2016. Cópia arquivada em 16 de agosto de 2016 
  12. a b c d Ohlheiser, Abby (25 de março de 2016). «Trolls turned Tay, Microsoft's fun millennial AI bot, into a genocidal maniac». The Washington Post. Consultado em 25 de março de 2016. Cópia arquivada em 25 de março de 2016 
  13. Baron, Ethan. «The rise and fall of Microsoft's 'Hitler-loving sex robot'». Silicon Beat. Bay Area News Group. Consultado em 26 de março de 2016. Cópia arquivada em 25 de março de 2016 
  14. Williams, Hayley (25 de março de 2016). «Microsoft's Teen Chatbot Has Gone Wild». Gizmodo. Consultado em 25 de março de 2016. Cópia arquivada em 25 de março de 2016 
  15. Hern, Alex (24 de março de 2016). «Microsoft scrambles to limit PR damage over abusive AI bot Tay». The Guardian. Consultado em 16 de dezembro de 2016. Cópia arquivada em 18 de dezembro de 2016 
  16. Vincent, James (24 de março de 2016). «Twitter taught Microsoft's AI chatbot to be a racist asshole in less than a day». The Verge. Consultado em 25 de março de 2016. Cópia arquivada em 23 de maio de 2016 
  17. a b Worland, Justin (24 de março de 2016). «Microsoft Takes Chatbot Offline After It Starts Tweeting Racist Messages». Time. Consultado em 25 de março de 2016. Cópia arquivada em 25 de março de 2016 
  18. a b Lee, Peter (25 de março de 2016). «Learning from Tay's introduction». Official Microsoft Blog. Microsoft. Consultado em 29 de junho de 2016. Cópia arquivada em 30 de junho de 2016 
  19. Murgia, Madhumita (25 de março de 2016). «We must teach AI machines to play nice and police themselves». The Daily Telegraph. Consultado em 4 de abril de 2018. Cópia arquivada em 22 de novembro de 2018 
  20. Staff agencies (26 de março de 2016). «Microsoft 'deeply sorry' for racist and sexist tweets by AI chatbot». The Guardian (em inglês). ISSN 0261-3077. Consultado em 26 de março de 2016. Cópia arquivada em 28 de janeiro de 2017 
  21. Murphy, David (25 de março de 2016). «Microsoft Apologizes (Again) for Tay Chatbot's Offensive Tweets». PC Magazine. Consultado em 27 de março de 2016. Cópia arquivada em 29 de agosto de 2017 
  22. Graham, Luke (30 de março de 2016). «Tay, Microsoft's AI program, is back online». CNBC. Consultado em 30 de março de 2016. Cópia arquivada em 20 de setembro de 2017 
  23. Charlton, Alistair (30 de março de 2016). «Microsoft Tay AI returns to boast of smoking weed in front of police and spam 200k followers». International Business Times. Consultado em 11 de setembro de 2021. Cópia arquivada em 11 de setembro de 2021 
  24. Meyer, David (30 de março de 2016). «Microsoft's Tay 'AI' Bot Returns, Disastrously». Fortune. Consultado em 30 de março de 2016. Cópia arquivada em 30 de março de 2016 
  25. Foley, Mary Jo (5 de dezembro de 2016). «Meet Zo, Microsoft's newest AI chatbot». CNET. CBS Interactive. Consultado em 16 de dezembro de 2016. Cópia arquivada em 13 de dezembro de 2016 
  26. Moloney, Charlie (29 de setembro de 2017). «"We really need to take accountability", Microsoft CEO on the 'Tay' chatbot». Access AI. Consultado em 30 de setembro de 2017. Cópia arquivada em 1 de outubro de 2017 
  27. «Microsoft and the learnings from its failed Tay artificial intelligence bot». ZDNet. CBS Interactive. Consultado em 16 de agosto de 2019. Cópia arquivada em 25 de julho de 2019 

Ligações externas[editar | editar código-fonte]