LessWrong

Origem: Wikipédia, a enciclopédia livre.
LessWrong
Tipo de sítio Fórum de discussão, blog
Fundador(es) Eliezer Yudkowsky
Cadastro Opcional, mas é necessário para contribuir com conteúdo
Idioma(s) Inglês
Lançamento 1 de fevereiro de 2009; há 15 anos
Linguagem de programação JavaScript, CSS (por React e GraphQL)
Endereço eletrônico LessWrong.com
Estado atual Ativo

LessWrong (também conhecido como Less Wrong) é um blog e fórum comunitário voltado para a discussão de vieses cognitivos, filosofia, psicologia, economia, racionalidade e inteligência artificial, entre outros tópicos.[1][2]

Propósito[editar | editar código-fonte]

O LessWrong promove mudanças no estilo de vida que a comunidade acredita que levem ao aumento da racionalidade e ao autoaperfeiçoamento. As postagens geralmente se concentram em evitar vieses relacionados à tomada de decisões e à avaliação de evidências. Uma sugestão é o uso do teorema de Bayes como ferramenta para a tomada de decisões.[2] Há também um foco nas barreiras psicológicas que impedem a boa tomada de decisões, incluindo o condicionamento do medo e os vieses cognitivos estudados pelo psicólogo Daniel Kahneman.[3]

O LessWrong também se preocupa com o transhumanismo, as ameaças existenciais e a singularidade. O The New York Observer destaca que "Apesar de se descrever como um fórum sobre 'a arte da racionalidade humana', o grupo Less Wrong de Nova York [...] está fixado em um ramo do futurismo que pareceria mais adequado a um multiplex 3D do que a um seminário de pós-graduação: a terrível ameaça existencial - ou, com sorte, a promessa utópica - conhecida como a Singularidade tecnológica [...]. Ao se autodenominarem 'racionalistas', como a equipe do Less Wrong fez, fica muito mais difícil descartá-los como uma 'seita apocalíptica'."[4]

História[editar | editar código-fonte]

O LessWrong foi desenvolvido a partir do Overcoming Bias, um blog anterior do grupo focado na racionalidade humana, que começou em novembro de 2006, com o pesquisador de inteligência artificial Eliezer Yudkowsky e o economista Robin Hanson como os principais colaboradores. Em fevereiro de 2009, as publicações de Yudkowsky foram usadas como material de base para criar o blog da comunidade LessWrong, e o Overcoming Bias tornou-se o blog pessoal de Hanson.[5] Em 2013, uma parte significativa da comunidade racionalista mudou o foco para o Slate Star Codex de Scott Alexander.[6]

O LessWrong e o movimento que o cerca são os temas do livro de 2019 The AI Does Not Hate You (A IA não odeia você), escrito pelo ex-correspondente científico do BuzzFeed, Tom Chivers.[7][8][9]

Basilisco de Roko[editar | editar código-fonte]

Ver artigo principal: Basilisco de Roko

Em julho de 2010, o participante do LessWrong, Roko, publicou um experimento mental no site em que um futuro sistema de IA benevolente tortura as pessoas que ouviram falar da IA antes de ela existir e não trabalharam incansavelmente para trazê-la à existência, a fim de incentivar esse trabalho. Usando a "teoria da decisão atemporal" de Yudkowsky, a postagem afirmava que fazer isso seria benéfico para a IA, embora não pudesse afetar causalmente as pessoas no presente. Essa ideia ficou conhecida como "basilisco de Roko", com base na ideia de Roko de que o simples fato de ouvir sobre a ideia daria ao sistema de IA hipotético incentivos mais fortes para empregar chantagem. Yudkowsky excluiu as postagens de Roko sobre o assunto, dizendo que a publicação era "estúpida", pois a disseminação de informações que podem ser prejudiciais até mesmo para quem está ciente delas é, por si só, um ato prejudicial, e que a ideia, embora criticamente falha, representava um espaço de pensamento que poderia conter "um pensamento genuinamente perigoso", algo considerado um risco de informação. A discussão sobre o basilisco de Roko foi proibida no LessWrong por vários anos porque Yudkowsky havia declarado que ela causava colapsos nervosos em alguns leitores.[10][11][4] A proibição foi suspensa em outubro de 2015.[12]

David Auerbach escreveu na Slate que "a combinação de ambições messiânicas, estar convencido de sua própria infalibilidade e muito dinheiro nunca dá certo, independentemente da ideologia, e não espero que Yudkowsky e seus companheiros sejam uma exceção. Eu me preocupo menos com o Basilisco de Roko do que com as pessoas que acreditam ter transcendido a moralidade convencional."[11]

O basilisco de Roko foi mencionado no videoclipe de Grimes, cantora canadense, para sua música "Flesh Without Blood", de 2015, por meio de uma personagem chamada "Rococo Basilisk", que foi descrita por Grimes como "condenada a ser eternamente torturada por uma inteligência artificial, mas ela também é parecida com Maria Antonieta". Após pensar nesse trocadilho e descobrir que Grimes já o havia feito, Elon Musk entrou em contato com Grimes, o que os levou a um namoro.[13][14] O conceito também foi mencionado em um episódio de Silicon Valley intitulado "Facial Recognition".[15]

O Basilisco foi comparado à aposta de Pascal.[16]

Altruísmo eficaz[editar | editar código-fonte]

O LessWrong desempenhou um papel significativo no desenvolvimento do movimento do altruísmo eficaz (EA),[17] e as duas comunidades estão intimamente ligadas.[18]:227 Em uma pesquisa com usuários do LessWrong em 2016, 664 dos 3.060 entrevistados, ou 21,7%, se identificaram como "altruístas eficazes". Uma pesquisa separada sobre altruístas eficazes em 2014 revelou que 31% dos entrevistados tinham ouvido falar da EA pela primeira vez por meio do LessWrong,[18] embora esse número tenha caído para 8,2% em 2020.[19] Dois dos primeiros defensores do altruísmo eficaz, Toby Ord e William MacAskill, conheceram o filósofo transhumanista Nick Bostrom na Universidade de Oxford. A pesquisa de Bostrom influenciou muitos altruístas eficazes a trabalhar na redução do risco existencial.[18]

Referências[editar | editar código-fonte]

  1. «Less Wrong FAQ» (em inglês). LessWrong. Consultado em 25 de março de 2014. Cópia arquivada em 30 de abril de 2019 
  2. a b Miller, James (28 de julho de 2011). «You Can Learn How To Become More Rational». Business Insider (em inglês). Consultado em 25 de março de 2014. Cópia arquivada em 10 de agosto de 2018 
  3. Burkeman, Oliver (9 de março de 2012). «This column will change your life: asked a tricky question? Answer an easier one». The Guardian (em inglês). Consultado em 25 de março de 2014. Cópia arquivada em 26 de março de 2014 
  4. a b Tiku, Nitasha (25 de julho de 2012). «Faith, Hope, and Singularity: Entering the Matrix with New York's Futurist Set». Observer (em inglês). Consultado em 12 de abril de 2019. Cópia arquivada em 12 de abril de 2019 
  5. «Where did Less Wrong come from? (LessWrong FAQ)» (em inglês). Consultado em 25 de março de 2014. Cópia arquivada em 30 de abril de 2019 
  6. Lewis-Kraus, Gideon (9 de julho de 2020). «Slate Star Codex and Silicon Valley's War Against the Media». The New Yorker (em inglês). Consultado em 4 de agosto de 2020. Cópia arquivada em 10 de julho de 2020 
  7. Cowdrey, Katherine (21 de setembro de 2017). «W&N wins Buzzfeed science reporter's debut after auction». The Bookseller (em inglês). Consultado em 21 de setembro de 2017. Cópia arquivada em 27 de novembro de 2018 
  8. Chivers, Tom (2019). The AI Does Not Hate You (em inglês). [S.l.]: Weidenfeld & Nicolson. ISBN 978-1474608770 
  9. Marriott, James (31 de maio de 2019). «The AI Does Not Hate You by Tom Chivers review — why the nerds are nervous». The Times (em inglês). ISSN 0140-0460. Consultado em 3 de maio de 2020. Cópia arquivada em 23 de abril de 2020 
  10. Love, Dylan (6 de agosto de 2014). «WARNING: Just Reading About This Thought Experiment Could Ruin Your Life». Business Insider (em inglês). Consultado em 6 de dezembro de 2014. Cópia arquivada em 18 de novembro de 2018 
  11. a b Auerbach, David (17 de julho de 2014). «The Most Terrifying Thought Experiment of All Time». Slate (em inglês). Consultado em 18 de julho de 2014. Cópia arquivada em 25 de outubro de 2018 
  12. RobbBB (5 de outubro de 2015). «A few misconceptions surrounding Roko's basilisk» (em inglês). LessWrong. Consultado em 10 de abril de 2016. Cópia arquivada em 15 de março de 2018. A proibição do basilisco do Roko não está mais em vigor 
  13. Paez, Danny (5 de agosto de 2018). «Elon Musk and Grimes: "Rococo Basilisk" Links the Two on Twitter». Inverse (em inglês). Consultado em 24 de julho de 2020. Cópia arquivada em 24 de julho de 2020 
  14. Oberhaus, Daniel (8 de maio de 2018). «Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together». Vice (em inglês). Consultado em 24 de julho de 2020. Cópia arquivada em 25 de julho de 2020 
  15. Burch, Sean (23 de abril de 2018). «'Silicon Valley' Fact Check: That Thought Experiment Is Real and Horrifying». TheWrap (em inglês). Consultado em 12 de novembro de 2020. Cópia arquivada em 12 de novembro de 2020 
  16. Paul-Choudhury, Sumit (2 de agosto de 2019). «Tomorrow's Gods: What is the future of religion?». BBC (em inglês). Consultado em 28 de agosto de 2020. Cópia arquivada em 1 de setembro de 2020 
  17. de Lazari-Radek, Katarzyna; Singer, Peter (27 de setembro de 2017). Utilitarianism: A Very Short Introduction. [S.l.]: Oxford University Press. p. 110. ISBN 9780198728795 
  18. a b c Chivers, Tom (2019). «Chapter 38: The Effective Altruists». The AI Does Not Hate You. [S.l.]: Weidenfeld & Nicolson. ISBN 978-1474608770 
  19. Moss, David (20 de maio de 2021). «EA Survey 2020: How People Get Involved in EA». Effective Altruism Forum (em inglês). Consultado em 28 de julho de 2021. Cópia arquivada em 28 de julho de 2021 

Ligações externas[editar | editar código-fonte]