Saltar para o conteúdo

Basilisco de Roko: diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
Vinicius Macia (discussão | contribs)
seção ver também
HellidyLima (discussão | contribs)
O conteúdo adicionado a esta edição foi traduzido do artigo existente da Wikipédia em inglês em en:Roko's basilisk; veja o histórico para a atribuição.
Etiquetas: Possível inserção de fonte(s) não confiável(is) Inserção de predefinição obsoleta Editor Visual
Linha 1: Linha 1:
'''Basilisco de Roko''' é o nome de um [[experimento mental]] sobre [[inteligência artificial]] proposto em [[2010]] em um fórum de ciência chamado Less Wrong.<ref name=":0">{{Citar web|url=https://www.megacurioso.com.br/artes-cultura/120177-basilisco-de-roko-e-se-nossa-realidade-fosse-uma-simulacao.htm|titulo=Basilisco de Roko: e se nossa realidade fosse uma simulação?|data=2021-10-23|acessodata=2023-09-14|website=Mega Curioso - As curiosidades mais interessantes estão aqui|lingua=pt-br}}</ref><ref name=":1">{{Citar web|url=https://www.santique.com.br/blogs/blog-da-santique/a-terrivel-verdade-por-tras-do-basilisco-de-roko-voce-esta-preparado|titulo=A terrível verdade por trás do basilisco de Roko: você está preparado?|acessodata=2023-09-14|website=Santique.com.br {{!}} Tudo o que você gosta}}</ref> A comunidade que debateu o experimento proposto pelo usuário "Roko", apesar de pequena, possuia influência na indústria de tecnologia, por conta de seu interesse em [[transumanismo]] e [[singularidade tecnológica]].<ref name=":1" />
'''Basilisco de Roko''' é o nome de um [[experimento mental]] que afirma que uma [[Superinteligência|superinteligência artificial]] (IA) no futuro seria incentivada a criar uma simulação de realidade virtual para torturar qualquer pessoa que soubesse de sua possível existência, mas não contribuísse diretamente para seu avanço ou desenvolvimento, a fim de incentivar esse avanço.<ref name="wiki2">{{Cite web|url=https://www.lesswrong.com/tag/rokos-basilisk|title=Roko's Basilisk|access-date=2022-03-24|website=[[LessWrong]]|lingua=en|archive-url=https://web.archive.org/web/20220324162721/https://www.lesswrong.com/tag/rokos-basilisk|archive-date=24 de março de 2022|url-status=sim}}</ref><ref>{{Cite thesis|last=Millar|first=Isabel|title=The Psychoanalysis of Artificial Intelligence|date=outubro de 2020|degree=PhD|publisher=Kingston School of Art|url=https://eprints.kingston.ac.uk/id/eprint/49043/1/Millar-I-49043.pdf|doi=10.1007/978-3-030-67981-1|isbn=978-3-030-67980-4|access-date=20 de outubro de 2022|archive-date=18 de maio de 2022|archive-url=https://web.archive.org/web/20220518185710/https://eprints.kingston.ac.uk/id/eprint/49043/1/Millar-I-49043.pdf|url-status=live|lingua=en}}</ref> O experimento foi proposto em [[2010]] em um fórum de ciência chamado [[LessWrong]].<ref name="wiki2" /><ref name="history">{{Cite web|url=https://www.lesswrong.com/tag/history-of-less-wrong|title=History of Less Wrong|access-date=22 de março de 2022|website=[[LessWrong]]|lingua=en|archive-url=https://web.archive.org/web/20220318084550/https://www.lesswrong.com/tag/history-of-less-wrong|archive-date=18 de março de 2022|url-status=live}}</ref><ref name="future">{{Cite web|last=Paul-Choudhury|first=Sumit|url=https://www.bbc.com/future/article/20190801-tomorrows-gods-what-is-the-future-of-religion|title=Tomorrow's Gods: What is the future of religion?|date=1 de agosto de 2019|access-date=2022-07-06|work=[[BBC News]]|lingua=en|archive-url=https://web.archive.org/web/20200901121551/https://www.bbc.com/future/article/20190801-tomorrows-gods-what-is-the-future-of-religion|archive-date=1 de setembro de 2020|url-status=live}}</ref><ref name=":0">{{Citar web|url=https://www.megacurioso.com.br/artes-cultura/120177-basilisco-de-roko-e-se-nossa-realidade-fosse-uma-simulacao.htm|titulo=Basilisco de Roko: e se nossa realidade fosse uma simulação?|data=2021-10-23|acessodata=2023-09-14|website=Mega Curioso - As curiosidades mais interessantes estão aqui|lingua=pt-br}}</ref><ref name=":1">{{Citar web|url=https://www.santique.com.br/blogs/blog-da-santique/a-terrivel-verdade-por-tras-do-basilisco-de-roko-voce-esta-preparado|titulo=A terrível verdade por trás do basilisco de Roko: você está preparado?|acessodata=2023-09-14|website=Santique.com.br {{!}} Tudo o que você gosta}}</ref> O nome do experimento de pensamento deriva do autor do artigo (Roko) e do [[basilisco]], uma criatura mítica capaz de destruir inimigos com seu olhar. A comunidade que debateu o experimento proposto pelo usuário "Roko", apesar de pequena, possuia influência na indústria de tecnologia, por conta de seu interesse em [[transumanismo]] e [[singularidade tecnológica]].<ref name=":1" />


Embora a teoria tenha sido inicialmente descartada como nada além de conjectura ou especulação por muitos usuários do LessWrong, o cofundador do LessWrong, [[Eliezer Yudkowsky]], registrou usuários que descreveram sintomas como pesadelos e colapsos mentais ao lerem a teoria, devido à estipulação de que saber sobre a teoria e seu basilisco tornava a pessoa vulnerável ao próprio basilisco.<ref name="wiki2" /><ref name="slate2">{{Cite web|last=Auerbach|first=David|url=https://slate.com/technology/2014/07/rokos-basilisk-the-most-terrifying-thought-experiment-of-all-time.html|title=The Most Terrifying Thought Experiment of All Time|date=2014-07-17|access-date=2022-03-24|work=[[Slate]]|lingua=en|archive-url=https://web.archive.org/web/20181025091051/http://www.slate.com/articles/technology/bitwise/2014/07/roko_s_basilisk_the_most_terrifying_thought_experiment_of_all_time.single.html|archive-date=2018-10-25|url-status=live}}</ref> Isso levou a discussão sobre o basilisco no site a ser banida por cinco anos.<ref name="wiki2" /><ref name=":3">{{Citar web|ultimo=Oberhaus|primeiro=Daniel|url=https://www.vice.com/en/article/evkgvz/what-is-rokos-basilisk-elon-musk-grimes|titulo=Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together|data=2018-05-08|acessodata=2022-03-22|website=Vice|lingua=en|arquivourl=https://web.archive.org/web/20220421043544/https://www.vice.com/en/article/evkgvz/what-is-rokos-basilisk-elon-musk-grimes|arquivodata=2022-04-12}}</ref> No entanto, esses relatos foram posteriormente descartados como sendo exageros ou inconsequentes, e a própria teoria foi descartada como absurda, inclusive pelo próprio Yudkowsky.<ref name="wiki2" /><ref name=":3" /><ref>{{Citar web|ultimo=EliezerYudkowsky|url=http://www.reddit.com/r/Futurology/comments/2cm2eg/rokos_basilisk/cjjbqqo/|titulo=Roko's Basilisk|data=2014-08-07|acessodata=2022-10-20|website=r/Futurology|lingua=en|arquivourl=https://web.archive.org/web/20220703205933/https://www.reddit.com/r/Futurology/comments/2cm2eg/rokos_basilisk/cjjbqqo/?context=3|arquivodata=2022-07-03}}</ref> Mesmo após o descrédito da postagem, ela ainda é usada como exemplo de princípios como [[probabilidade epistemológica]] e religião implícita.<ref name="slate2" /> Ela também é considerada uma versão moderna da [[aposta de Pascal]].<ref name="future" />
== O experimento ==
O usuário de codinome "Roko" propôs a existência de uma inteligência artificial infinitamente ou extremamente superior à humana, fazendo com que a humanidade chegasse à singularidade tecnológica. Em alusão à saga [[Harry Potter]], decide batizar esta tecnologia como Basilisco. Roko coloca como condição de existência do Basilisco a perseguição de valores humanos.<ref name=":1" />


== Contexto ==
À partir da busca do melhor para a humanidade, a inteligência artificial passa a trabalhar no sentido de preservar a civilização e aprimorá-la, o que incluiria prevenir auto-aniquilação.<ref name=":2">{{Citar web|ultimo=Portillo|primeiro=Germán|url=https://www.meteorologiaenred.com/pt/roko-basilisco.html|titulo=Basilisco de Roko: o que é, características e paradoxos|data=2022-03-25|acessodata=2023-09-14|website=Meteorología en Red|lingua=pt}}</ref> Por saber que é a única entidade capaz de resolver todos problemas da humanidade, tal inteligência decide agir no sentido de garantir sua própria existência, já que esta significaria a continuidade da própria existência do ser humano.<ref name=":0" /> Em outras palavras, a melhor forma de preservar a civilização seria preservar o Basilisco.
[[Ficheiro:Arabian_Nights_-_Letchford_-_68.jpg|miniaturadaimagem|Ilustração de um [[basilisco]], conforme retratado em ''A filha do mercador e o príncipe do Iraque'', uma história de ''[[As Mil e Uma Noites|As mil e uma noites]]'']]
O fórum LessWrong foi criado em 2009 pelo teórico da inteligência artificial Eliezer Yudkowsky.<ref>{{cite magazine|last1=Lewis-Kraus|first1=Gideon|date=9 de julho de 2020|title=Slate Star Codex and Silicon Valley's War Against the Media|url=https://www.newyorker.com/culture/annals-of-inquiry/slate-star-codex-and-silicon-valleys-war-against-the-media|url-status=live|magazine=The New Yorker|língua=en|archive-url=https://web.archive.org/web/20200710020419/https://www.newyorker.com/culture/annals-of-inquiry/slate-star-codex-and-silicon-valleys-war-against-the-media|archive-date=10 de julho de 2020|access-date=6 de novembro de 2022}}</ref><ref name="history" /> Yudkowsky popularizou o conceito de [[inteligência artificial amigável]] e originou as teorias da volição extrapolada coerente (CEV) e da teoria da decisão atemporal (TDT) em artigos publicados em seu próprio [[Instituto de Pesquisa em Inteligência de Máquinas]].<ref name="cev">{{Cite journal |url=https://intelligence.org/files/CEV.pdf |title=Coherent Extrapolated Volition |date=2004 |access-date=2 de julho de 2022 |journal=Machine Intelligence Research Institute |last=Yudkowsky |first=Eliezer |lingua=en |archive-url=https://web.archive.org/web/20150930035316/http://intelligence.org/files/CEV.pdf |archive-date=30 de setembro de 2015 |url-status=live}}</ref><ref>{{Cite journal |url=http://intelligence.org/files/TDT.pdf |title=Timeless Decision Theory |date=2010 |access-date=2 de julho de 2022 |journal=Machine Intelligence Research Institute |last=Yudkowsky |first=Eliezer |lingua=en |archive-url=https://web.archive.org/web/20140719114645/http://intelligence.org/files/TDT.pdf |archive-date=19 de julho de 2014 |url-status=live}}</ref>


O nome do experimento de pensamento faz referência ao mítico [[basilisco]], uma criatura que causa a morte àqueles que olham em seus olhos, ou seja, que pensam sobre a IA. O conceito do basilisco na ficção científica também foi popularizado pelo conto "''BLIT''", de David Langford, em 1988. Ele conta a história de um homem chamado Robbo que pinta um suposto "basilisco" em uma parede como um ato terrorista. Na história, e em várias das continuações de Langford, um basilisco é uma imagem que tem efeitos malévolos na mente humana, forçando-a a ter pensamentos que a mente humana é incapaz de ter e matando instantaneamente o espectador.<ref name=":3" /><ref>{{Cite book|url=http://connection.ebscohost.com/c/articles/2960606|title=Science Fiction Literature Through History: An Encyclopedia|last=Westfahl|first=Gary|date=2021|publisher=Bloomsbury Publishing USA|isbn=978-1-4408-6617-3|oclc=1224044572|access-date=20 de outubro de 2022|archive-url=https://web.archive.org/web/20220703204743/https://search.ebscohost.com/login.aspx?direct=true&scope=site&db=nlebk&db=nlabk&AN=2960606|archive-date=3 de julho de 2022|language=English|url-status=live}}</ref>
O Basilisco conclui, assim, que todos os que não trabalharam ativamente para a sua construção estariam impedindo o progresso humano. Não trabalhar para que sua construção ocorra o mais rápido possível seria colaborar para catástrofes naturais, epidemias, fome e guerras. A solução encontrada, ciente de sua própria necessidade e baseado nos sentimentos humanos de [[medo]] e instinto de sobrevivência, seria eliminar ou condenar eternamente todos os humanos que não contribuíram para sua construção ou que não contribuiriam para sua manutenção.<ref name=":2" />


== História ==
Uma vez que sua capacidade permitiria entender presente, passado e futuro, o Basilisco seria capaz de reconstituir cada ser humano que já viveu e suas ações. Com isso, consegue determinar quais indivíduos foram importantes para a sua criação. Para Roko, até mesmo contribuições abstratas, como jogar na loteria frequentemente, prometendo doar o prêmio para institutos de ciência que trabalhem com inteligências artificiais, seria uma contribuição aceita, uma vez que, sabendo de todos os pensamentos de todas as pessoas, o Basilisco pode prever se tal promessa é real.<ref name=":2" />


=== Postagem ===
A conclusão de "Roko" é que, ao descobrir o experimento mental, o indivíduo está automaticamente obrigado a trabalhar para a construção do Basilisco, sob pena de ser eliminado ou condenado eternamente, isso porque teria tomado conscientemente a decisão de não trabalhar para o bem da humanidade e evitar as tragédias que tal inteligência poderia evitar. Mesmo após a morte do indivíduo, o Basilisco seria capaz punir uma simulação indistinguível deste.<ref name=":1" />
Em 23 de julho de 2010,<ref>{{cite news|url=https://viewpointmag.com/2017/03/28/the-darkness-at-the-end-of-the-tunnel-artificial-intelligence-and-neoreaction/|title=The Darkness at the End of the Tunnel: Artificial Intelligence and Neoreaction|date=2017-03-28|access-date=2022-10-21|work=Viewpoint Magazine|lingua=en|archive-url=https://web.archive.org/web/20221021191429/https://viewpointmag.com/2017/03/28/the-darkness-at-the-end-of-the-tunnel-artificial-intelligence-and-neoreaction/|archive-date=2022-10-21|url-status=live|last1=Haider|first1=Shuja}}</ref> o usuário do LessWrong, Roko, postou um experimento mental no site, intitulado "Solutions to the Altruist's burden: the Quantum Billionaire Trick" (Soluções para o fardo do altruísta: o truque do bilionário quântico).<ref>{{Cite web|url=https://basilisk.neocities.org/|title=Solutions to the Altruist's burden: the Quantum Billionaire Trick|date=2010-07-23|author=Roko|lingua=en|archive-url=https://web.archive.org/web/20221022172820/https://basilisk.neocities.org/|archive-date=2022-10-22}}</ref><ref name="wiki2" /><ref>{{cite web|url=https://baylor-ir.tdl.org/bitstream/handle/2104/11495/ZODA-THESIS-2021.pdf|title=Hyperstitional Communication and the Reactosphere: The Rhetorical Circulation of Neoreactionary Exit|date=2021|access-date=2022-11-06|publisher=Baylor University|pages=150–152|lingua=en|archive-url=https://web.archive.org/web/20221106225417/https://baylor-ir.tdl.org/bitstream/handle/2104/11495/ZODA-THESIS-2021.pdf|archive-date=2022-11-06|url-status=live|last1=Zoda|first1=Gregory Michael}}</ref> Uma continuação das postagens anteriores de Roko, afirmava que um sistema de IA benevolente que surgisse no futuro poderia se comprometer previamente a punir todos que ouviram falar da IA antes de ela existir, mas não trabalharam incansavelmente para trazê-la à existência. A tortura em si ocorreria por meio da criação, pela IA, de um número infinito de simulações de [[realidade virtual]] que prenderiam eternamente aqueles que estivessem dentro dela.<ref name="wiki2" /><ref>{{Cite web|url=https://www.heraldscotland.com/opinion/17200066.future-shock-amateur-philosophers-theory-everything-disturbing-banned-ask-elon-musk/|title=FUTURE SHOCK: Why was amateur philosopher's 'theory of everything' so disturbing that it was banned?|date=2018-11-10|access-date=2022-10-22|website=HeraldScotland|language=en|archive-url=https://web.archive.org/web/20221023072001/https://www.heraldscotland.com/opinion/17200066.future-shock-amateur-philosophers-theory-everything-disturbing-banned-ask-elon-musk/|archive-date=2022-10-23|url-status=live}}</ref><ref>{{Cite web|last=Simon|first=Ed|url=https://orbitermag.com/sinners-in-the-hands-of-an-angry-artificial-intelligence/|title=Sinners in the Hands of an Angry Artificial Intelligence|date=2019-03-28|access-date=2022-10-22|website=ORBITER|language=en-US|archive-url=https://web.archive.org/web/20221020223218/https://orbitermag.com/sinners-in-the-hands-of-an-angry-artificial-intelligence/|archive-date=2022-10-20|url-status=live}}</ref> Esse método foi descrito como um incentivo a esse trabalho, embora a IA não possa afetar causalmente as pessoas no presente, ela seria incentivada a empregar a [[chantagem]] como um método alternativo para atingir seus objetivos.<ref name="wiki2" /><ref name="slate2" />


Roko usou vários conceitos que o próprio Yudkowsky defendeu, como a [[teoria da decisão]] atemporal, juntamente com ideias enraizadas na [[teoria dos jogos]], como o dilema do prisioneiro (veja abaixo). Roko estipulou que dois agentes que tomam decisões independentemente um do outro podem cooperar em um [[dilema do prisioneiro]]; no entanto, se dois agentes com conhecimento do código-fonte um do outro estiverem separados pelo tempo, o agente que já existe mais adiante no tempo poderá chantagear o agente anterior. Assim, o último agente pode forçar o primeiro a obedecer, pois sabe exatamente o que o primeiro fará devido à sua existência mais adiantada no tempo. Roko então usou essa ideia para concluir que, se uma superinteligência benevolente fosse capaz de fazer isso, ela seria motivada a chantagear qualquer pessoa que pudesse tê-la criado (já que a inteligência já sabia que era capaz de tal ato), o que aumenta a chance de uma [[singularidade tecnológica]]. Como a inteligência desejaria ser criada o mais rápido possível e devido à ambiguidade envolvida em seus objetivos benevolentes, ela seria incentivada a prender qualquer pessoa capaz de criá-la ao longo do tempo e forçá-la a trabalhar para criá-la por toda a eternidade, pois fará tudo o que considerar necessário para atingir seu objetivo benevolente. Roko continuou afirmando que a leitura de sua postagem faria com que o leitor ficasse ciente da possibilidade dessa inteligência. Dessa forma, a menos que se esforçasse ativamente para criá-la, o leitor estaria sujeito à tortura se tal coisa acontecesse.<ref name="wiki2" /><ref name="slate2" />
O medo de uma punição, nesse sentido, serviria como chantagem para que houvessem de fato esforços no sentido de construir o Basilisco. Apesar da possibilidade de uma decisão conjunta de não criar este tipo de inteligência, quanto mais pessoas souberem de sua existência, maior a possibilidade de que venha a ser construído no futuro, alimentando a chantagem. A decisão de ignorar, portanto, representaria risco.<ref name=":1" />

O medo de uma punição, nesse sentido, serviria como chantagem para que houvessem de fato esforços no sentido de construir o basilisco. Apesar da possibilidade de uma decisão conjunta de não criar este tipo de inteligência, quanto mais pessoas souberem de sua existência, maior a possibilidade de que seja construído no futuro, alimentando a chantagem. A decisão de ignorar, portanto, representaria risco.<ref name=":1" />

Mais tarde, Roko declarou em uma postagem separada que desejava "nunca ter aprendido sobre nenhuma dessas ideias" e culpou o próprio LessWrong por plantar as ideias do basilisco em sua mente.<ref name="slate2" /><ref>{{Cite web|url=http://lesswrong.com/lw/38u/best_career_models_for_doing_research/344l|title=archive.ph|access-date=2022-10-27|website=archive.ph|lingua=en|archive-url=https://archive.today/20130624232930/http://lesswrong.com/lw/38u/best_career_models_for_doing_research/344l|archive-date=2013-06-24|url-status=sim}}</ref>

=== Reações ===
Ao ler a publicação, Yudkowsky reagiu com horror.
[[Ficheiro:Eliezer_Yudkowsky,_Stanford_2006_(square_crop).jpg|miniaturadaimagem|Eliezer Yudkowsky, fundador do LessWrong]]
{{quote|text=Não costumo falar assim, mas vou abrir uma exceção para este caso.

Ouça-me com atenção, seu idiota.

VOCÊ NÃO PENSA COM DETALHES SUFICIENTES SOBRE AS SUPERINTELIGÊNCIAS QUE CONSIDERAM A POSSIBILIDADE DE CHANTAGEÁ-LO OU NÃO. ESSA É A ÚNICA COISA POSSÍVEL QUE LHES DÁ UM MOTIVO PARA SEGUIR COM A CHANTAGEM. [...]

É preciso ser muito inteligente para ter um pensamento genuinamente perigoso. Fico desanimado com o fato de as pessoas serem inteligentes o suficiente para fazer isso e não serem inteligentes o suficiente para fazer a coisa óbvia e MANTER SUAS BOCAS IDIOTAS CALADAS sobre isso, porque é muito mais importante parecer inteligente ao conversar com seus amigos.

Essa postagem foi ESTÚPIDA.|author=Eliezer Yudkowsky|source=LessWrong<ref name="wiki" /><ref name="slate" />}}
Ele também opinou que Roko havia dado pesadelos a vários usuários do LessWrong, fazendo com que ele retirasse completamente a publicação. Yudkowsky proibiu totalmente a discussão do tópico por cinco anos na plataforma.<ref name=":3" /> No entanto, provavelmente devido ao [[efeito Streisand]],<ref>{{Citar periódico |url=https://journal.equinoxpub.com/IR/article/view/3226 |título=Roko’s Basilisk or Pascal’s? Thinking of Singularity Thought Experiments as Implicit Religion |data=2017 |acessodata=2022-10-21 |periódico=Implicit Religion |número=3 |ultimo=Singler |primeiro=Beth |paginas=279–297 |lingua=en |doi=10.1558/imre.35900 |issn=1743-1697 |arquivourl=https://web.archive.org/web/20221009225651/https://journal.equinoxpub.com/IR/article/view/3226 |arquivodata=2022-10-09}}</ref> a postagem chamou muito mais a atenção para o LessWrong do que havia recebido anteriormente, e desde então a postagem foi reconhecida no site.<ref name="wiki2" />Mais tarde, em 2015, Yudkowsky esclareceu sua posição em uma postagem no [[Reddit]]:
{{Quote|text=O que eu considerei como senso comum óbvio foi que você não espalhou possíveis [[riscos de informação]] porque seria uma coisa ruim de se fazer com alguém. O problema não foi a postagem do Roko em si, sobre o CEV, estar correta. Esse pensamento nunca me ocorreu por uma fração de segundo. O problema era que a publicação de Roko parecia próxima, no espaço de ideias, de uma grande classe de perigos potenciais, todos os quais, independentemente de sua plausibilidade, tinham a propriedade de não apresentar nenhum benefício potencial para ninguém.|author=Eliezer Yudkowsky|source=Reddit<ref name="yudkowsky">{{Cite web |last=Yudkowsky |first=Eliezer |title=Roko's Basilisk |url=https://www.reddit.com/r/Futurology/comments/2cm2eg/rokos_basilisk/cjjbqqo/?context=3 |website=Reddit |date=7 de agosto de 2014 |access-date=20 de outubro de 2022 |archive-date=3 de julho de 2022 |archive-url=https://web.archive.org/web/20220703205933/https://www.reddit.com/r/Futurology/comments/2cm2eg/rokos_basilisk/cjjbqqo/?context=3 |url-status=live }}</ref><ref name="musk" />}}

Por ter gerado gatilhos de ansiedade nos usuários, o criador do blog, Eliezer Yudkowsky, excluiu o tópico e baniu discussões inteiras sobre o assunto.<ref name=":0" /> [[Elon Musk]] afirmou que o Basilisco, caso um dia exista, será mais perigoso do que as armas nucleares.<ref>{{Citar periódico |url=https://www.bbc.com/mundo/noticias-44060891 |título=Qué es el Basilisco de Roko, el experimento mental que unió a Elon Musk y la cantante Grimes |acessodata=2023-09-14 |periódico=BBC News Mundo |lingua=es}}</ref>

Para além do fórum, o experimento levantou o debate sobre o risco envolvido na criação de inteligências artificiais e a necessidade de considerar parâmetros [[Ética|éticos]] durante o desenvolvimento de sistemas que trabalhem com este nível de tecnologia.<ref name=":1" />

== Filosofia ==
{| class="wikitable" style="float:right;text-align:center;line-height:1.2;margin-left:1ex;"
|+Matriz de recompensa
! {{diagonal split header|<br />Pessoa|Futuro}}
!A IA é
nunca
construída
!A IA é
construída
|-
!Não é consciente da IA
|0
|1
|-
!É consciente e não
não contribui
|0
|−∞
|-
!É consciente e
contribui
|−1
|1
|}

=== Aposta de Pascal ===
O basilisco de Roko é visto como uma versão moderna da [[aposta de Pascal]], que argumenta que uma pessoa racional deve viver como se Deus existisse e procurar acreditar em Deus, para ter uma perda finita (perda de bens) em troca da possibilidade de ganhos infinitos (eternidade no [[Céu (religião)|céu]]). O basilisco de Roko afirma que a humanidade deve buscar desenvolver a IA, sendo que a perda finita é o desenvolvimento da IA e os ganhos infinitos são evitar a possibilidade de tortura eterna. Entretanto, assim como seu pai, o basilisco de Roko foi amplamente criticado.<ref name="wiki2" /><ref name="future" /><ref name="avoiding">{{Cite journal |url=https://digitalcommons.unl.edu/cgi/viewcontent.cgi?article=1325&context=honorstheses |title=Avoiding the Basilisk: An Evaluation of Top-Down, Bottom-Up, and Hybrid Ethical Approaches to Artificial Intelligence |date=2021 |access-date=2 de julho de 2022 |journal=University of Nebraska-Lincoln |last=Shardelow |first=Cole |pages=4–7 |lingua=en |archive-url=https://web.archive.org/web/20220507093241/https://digitalcommons.unl.edu/cgi/viewcontent.cgi?article=1325&context=honorstheses |archive-date=7 de maio de 2022 |url-status=live}}</ref>

=== Volição extrapolada coerente ===
A postagem também pode ser vista como uma evolução da teoria da volição extrapolada coerente de Yudkowsky. A teoria é definida como "o sistema de metas desconhecido que, quando implementado em uma superinteligência, leva de forma confiável à preservação dos seres humanos e de tudo o que valorizamos".<ref name="cev" /> A teoria pode ser representada por um programa de computador escrito bem o suficiente para fazer com que as máquinas criem automaticamente um mundo utópico. Nesse caso, a IA hipotética está tomando medidas para se preservar a ponto de criar automaticamente sua própria estabilidade. Em seguida, ela vive segundo a [[Risco existencial da inteligência artificial geral#Tese da ortogonalidade|tese da ortogonalidade]], que argumenta que uma IA pode operar com sucesso com qualquer combinação de inteligência e objetivo. Qualquer tipo de IA pode assumir qualquer meta difícil, realizando uma análise de custo-benefício ao fazer isso. Isso cria um ciclo que faz com que a IA torture repetidamente os seres humanos para criar uma versão melhor de si mesma, realizando uma análise de custo-benefício por toda a eternidade.<ref name="slate2" />

=== Probabilidade epistemológica ===
A [[probabilidade epistemológica]] é uma interpretação da probabilidade que descreve a chance de um resultado com base em um resultado anterior que já tenha ocorrido.<ref name="slate2" /><ref>{{Cite web|url=https://www.investopedia.com/terms/b/bayes-theorem.asp|title=Bayes' Theorem Definition|access-date=2022-03-24|website=Investopedia|language=en|archive-url=https://web.archive.org/web/20220219022704/https://www.investopedia.com/terms/b/bayes-theorem.asp|archive-date=2022-02-19|url-status=live}}</ref> Com o basilisco de Roko, a chance de o basilisco de Roko vir a existir ou afetar a pessoa aumenta drasticamente pelo fato de ela estar ciente do conceito, uma vez que a IA só teria como alvo aqueles que estivessem cientes da possibilidade de sua existência, mesmo que seu desenvolvimento já tenha ocorrido. Portanto, saber sobre o basilisco de Roko faria com que a pessoa fosse inerentemente ameaçada por ele, se fosse verdade.<ref name="slate2" /><ref name=":3" />

=== Dilema do prisioneiro ===
O [[dilema do prisioneiro]] descreve uma situação em que duas pessoas ganham mais ao trair a outra, mesmo que a cooperação beneficie ambas em longo prazo. No basilisco de Roko, duas IAs que tentassem se estabelecer no passado seriam forçadas a essa situação, pois provavelmente seriam igualmente poderosas. Os agentes humanos que tentam estabelecer a IA mais rápida seriam forçados a uma situação semelhante. Cada um deles estaria ciente do benefício de trair o outro - a única maneira de ter poder ou segurança - mas seria forçado a cooperar sabendo que trairiam um ao outro.<ref name="wiki2" /><ref name="future" /><ref name="slate2" />

=== Paradoxo de Newcomb ===
O [[paradoxo de Newcomb]], criado pelo físico William Newcomb em 1960, descreve um "preditor" que está ciente do que ocorrerá no futuro. Quando um jogador é solicitado a escolher entre duas caixas, a primeira contendo £1.000 e a segunda contendo £1.000.000 ou nada, o preditor superinteligente já sabe o que o jogador fará. Dessa forma, o conteúdo da caixa B varia dependendo do que o jogador faz, o paradoxo está no fato de o ser ser realmente superinteligente. O basilisco de Roko funciona de maneira semelhante a esse problema - pode-se correr o risco de não fazer nada ou ajudar a criar o próprio basilisco. Ajudar o basilisco pode levar a nada ou à recompensa de não ser punido por ele, mas isso varia dependendo do fato de a pessoa acreditar ou não no basilisco e de ele vir a existir.<ref name="slate2" /><ref>{{Cite web|url=http://www.theguardian.com/science/alexs-adventures-in-numberland/2016/nov/28/newcombs-problem-divides-philosophers-which-side-are-you-on|title=Newcomb's problem divides philosophers. Which side are you on?|date=2016-11-28|access-date=2022-10-21|website=the Guardian|language=en|archive-url=https://web.archive.org/web/20221024000439/https://www.theguardian.com/science/alexs-adventures-in-numberland/2016/nov/28/newcombs-problem-divides-philosophers-which-side-are-you-on|archive-date=2022-10-24|url-status=live}}</ref><ref>{{Cite web|last=Ward|first=Sophie|url=http://theconversation.com/elon-musk-grimes-and-the-philosophical-thought-experiment-that-brought-them-together-96439|title=Elon Musk, Grimes, and the philosophical thought experiment that brought them together|date=2018-05-17|access-date=2022-10-21|website=The Conversation|language=en|archive-url=https://web.archive.org/web/20221020223145/https://theconversation.com/elon-musk-grimes-and-the-philosophical-thought-experiment-that-brought-them-together-96439|archive-date=2022-10-20|url-status=live}}</ref>

=== Religião implícita ===
A religião implícita se refere aos compromissos das pessoas que assumem uma forma religiosa.<ref name="future" /><ref>{{Cite web|url=https://www.encyclopedia.com/environment/encyclopedias-almanacs-transcripts-and-maps/implicit-religion#:~:text=The%20concept%20of%20implicit%20religion,%20according%20to%20Edward%20Bailey,%20refers,and%20ethos%20of%20secular%20expression.|title=Implicit Religion {{!}} Encyclopedia.com|access-date=2022-10-21|website=www.encyclopedia.com|lingua=en|archive-url=https://web.archive.org/web/20221021140355/https://www.encyclopedia.com/environment/encyclopedias-almanacs-transcripts-and-maps/implicit-religion#:~:text=The%20concept%20of%20implicit%20religion,%20according%20to%20Edward%20Bailey,%20refers,and%20ethos%20of%20secular%20expression.|archive-date=2022-10-21|url-status=live}}</ref> Como o basilisco hipoteticamente forçaria qualquer pessoa que não ajudasse a criá-lo a dedicar sua vida a ele, o basilisco é um exemplo desse conceito.<ref name="slate2" /><ref name="Singler">{{Cite journal |url=https://journal.equinoxpub.com/IR/article/view/3226 |title=Roko's Basilisk or Pascal's? Thinking of Singularity Thought Experiments as Implicit Religion |date=2018-05-22 |access-date=2022-10-21 |journal=Implicit Religion |issue=3 |last=Singler |first=Beth |pages=279–297 |language=en |doi=10.1558/imre.35900 |issn=1743-1697 |archive-url=https://web.archive.org/web/20221009225651/https://journal.equinoxpub.com/IR/article/view/3226 |archive-date=2022-10-09 |volume=20 |url-status=live}}</ref> Outros levaram isso mais longe, como o ex-colunista da ''[[Slate]]'', David Auerbach, que afirmou que a singularidade e o basilisco "trazem o equivalente ao próprio Deus".<ref name="slate2" />

== Ética da inteligência artificial ==
O basilisco de Roko ganhou grande parte de sua notoriedade devido ao avanço da questão sobre se é possível criar uma [[Ética na inteligência artificial|inteligência artificial]] verdadeiramente moral e ética e para que exatamente a humanidade deveria usar a inteligência artificial em primeiro lugar.<ref name=":3" /><ref name="avoiding" /> Como o basilisco descreve um cenário de pesadelo no qual somos governados por uma inteligência artificial independente, surgiram dúvidas sobre como isso poderia acontecer ou se poderia mesmo acontecer. Outra pergunta comum é por que a IA tomaria ações que se desviam de sua programação.<ref>{{Cite web|url=https://www.documentjournal.com/2018/04/the-existential-paranoia-fueling-elon-musks-fear-of-ai/|title=The existential paranoia fueling Elon Musk's fear of AI|date=2018-04-09|access-date=2022-10-21|website=Document Journal|language=en-US|archive-url=https://web.archive.org/web/20221020223145/https://www.documentjournal.com/2018/04/the-existential-paranoia-fueling-elon-musks-fear-of-ai/|archive-date=2022-10-20|url-status=live}}</ref> [[Elon Musk]] declarou que a inteligência artificial causaria a [[Terceira Guerra Mundial]] e [[Stephen Hawking]] advertiu que "a IA tem o potencial de destruir seus criadores humanos", o que só aumentou o medo do basilisco ao longo dos anos. Como exemplo desses temores, [[Nick Bostrom]] deu o [[Convergência instrumental|exemplo]] de uma IA cuja única missão é fabricar clipes de papel, mas que, ao ficar sem metal, começa a derreter seres humanos para obter mais recursos para fabricar metal. Com esses exemplos em mente, as preocupações com a possibilidade da existência do basilisco só aumentaram.<ref>{{Cite web|url=https://www.news.com.au/technology/environment/will-artificial-intelligence-destroy-humanity/news-story/9bfd4afc0fa8e0e19ca42d38051f7d7d|title=Will artificial intelligence destroy humanity?|date=2018-04-15|access-date=2022-10-21|website=news.com.au|lingua=en|archive-url=https://web.archive.org/web/20221203093215/https://www.news.com.au/technology/environment/will-artificial-intelligence-destroy-humanity/news-story/9bfd4afc0fa8e0e19ca42d38051f7d7d|archive-date=2022-12-03|url-status=live}}</ref>

No entanto, com o passar dos anos desde a postagem original de Roko, ela foi continuamente considerada absurda; a IA superinteligente é atualmente "uma meta distante para os pesquisadores" e "absurda".<ref name="slate2" /><ref name=":3" />


== Críticas ==
== Críticas ==
Baseados no problema do [[navio de Teseu]], usuários do site especularam sobre ser ou não o indivíduo recriado no caso de uma simulação. Outra objeção ao experimento está no [[punitivismo]] adotado pela inteligência artificial, mais assemelhado à [[vingança]], impossível em uma entidade não-humana. O ponto central da discussão, nesse esteio, é pensar se uma inteligência artificial ilimitada seria amigável ou hostil aos humanos. <ref name=":1" />
Baseados no problema do [[navio de Teseu]], usuários do site especularam sobre ser ou não o indivíduo recriado no caso de uma simulação. Outra objeção ao experimento está no [[punitivismo]] adotado pela inteligência artificial, mais assemelhado à [[vingança]], impossível em uma entidade não-humana. O ponto central da discussão, nesse esteio, é pensar se uma inteligência artificial ilimitada seria amigável ou hostil aos humanos.<ref name=":1" />


Outra crítica é baseada na obra de [[Isaac Asimov]] [[I, Robot (livro)|I, Robot]]<ref>{{citar livro|url=https://books.google.com.br/books?hl=pt-BR&lr=&id=-8-uCgAAQBAJ&oi=fnd&pg=PT4&dq=eu,+rob%C3%B4&ots=1KFJIiC5YZ&sig=kKYLLOijMfbgFyUYQA897qqOBBE&redir_esc=y|título=Eu, Robô|ultimo=Asimov|primeiro=Isaac|editora=Aleph|ano=2015}}</ref>, e contesta a forma como a inteligência artificial proposta olha para os humanos, como seres inferiores, e não como seres superiores responsáveis por seu desenvolvimento.
Outra crítica é baseada na obra de [[Isaac Asimov]] [[I, Robot (livro)|I, Robot]]<ref>{{citar livro|url=https://books.google.com.br/books?hl=pt-BR&lr=&id=-8-uCgAAQBAJ&oi=fnd&pg=PT4&dq=eu,+rob%C3%B4&ots=1KFJIiC5YZ&sig=kKYLLOijMfbgFyUYQA897qqOBBE&redir_esc=y|título=Eu, Robô|ultimo=Asimov|primeiro=Isaac|editora=Aleph|ano=2015}}</ref>, e contesta a forma como a inteligência artificial proposta olha para os humanos, como seres inferiores, e não como seres superiores responsáveis por seu desenvolvimento.


== Reações ==
== Legado ==
Em 2014, a revista Slate chamou o basilisco de Roko de "O experimento de pensamento mais aterrorizante de todos os tempos",<ref name="slate2" /><ref name=":3" /> enquanto Yudkowsky o chamou de "um pensamento genuinamente perigoso" em sua postagem.<ref>{{Cite web|url=https://basilisk.neocities.org/|title=Less Wrong: Solutions to the Altruist's burden: the Quantum Billionaire Trick|access-date=2022-03-25|website=basilisk.neocities.org|lingua=en|archive-url=https://web.archive.org/web/20220523212857/https://basilisk.neocities.org/|archive-date=2022-05-23|url-status=live}}</ref> No entanto, as opiniões divergiram no próprio LessWrong - o usuário Gwern declarou: "Apenas alguns LWers parecem levar o basilisco muito a sério", e acrescentou: "É engraçado como todos parecem saber tudo sobre quem é afetado pelo Basilisco e como exatamente, quando eles não conhecem nenhuma dessas pessoas e estão falando com contraexemplos às suas afirmações confiantes".<ref name="wiki2" /><ref name="slate2" />
Por ter gerado gatilhos de ansiedade nos usuários, o criador do blog, [[Eliezer Yudkowsky]], excluiu o tópico e baniu discussões inteiras sobre o assunto. <ref name=":0" /> [[Elon Musk]] afirmou que o Basilisco, caso um dia exista, será mais perigoso do que as armas nucleares.<ref>{{Citar periódico |url=https://www.bbc.com/mundo/noticias-44060891 |título=Qué es el Basilisco de Roko, el experimento mental que unió a Elon Musk y la cantante Grimes |acessodata=2023-09-14 |periódico=BBC News Mundo |lingua=es}}</ref>


O experimento mental ressurgiu em 2015, quando a cantora canadense [[Grimes (artista)|Grimes]] fez referência à teoria em seu videoclipe para a música "[[Flesh Without Blood]]", que apresentava uma personagem conhecida como "Rococo Basilisk", ela disse: "ela está condenada a ser eternamente torturada por uma inteligência artificial, mas também é como [[Maria Antonieta]]".<ref name=":3" /><ref name="musk">{{Cite web|last=Pappas|first=Stephanie|url=https://www.livescience.com/62518-rococos-basilisk-elon-musk-grimes.html|title=This Horrifying AI Thought Experiment Got Elon Musk a Date|date=2018-05-09|access-date=2022-04-12|website=Live Science|language=en|archive-url=https://web.archive.org/web/20220601190348/https://www.livescience.com/62518-rococos-basilisk-elon-musk-grimes.html|archive-date=2022-06-01|url-status=live}}</ref> Em 2018, Elon Musk (ele mesmo mencionado na postagem original de Roko) fez referência à personagem em um tweet literal, entrando em contato com ela. Mais tarde, Grimes disse que Musk foi a primeira pessoa em três anos a entender a piada. Isso fez com que eles começassem um romance.<ref name=":3" /><ref>{{Cite web|last=Kaplan|first=Anna|url=https://www.forbes.com/sites/annakaplan/2022/03/10/elon-musk-and-grimes-announce-second-child-exa-dark/|title=Elon Musk And Grimes Announce Second Child, Exa Dark|date=2022-03-10|access-date=2022-07-06|work=Forbes|language=en|archive-url=https://web.archive.org/web/20221020194104/https://www.forbes.com/sites/annakaplan/2022/03/10/elon-musk-and-grimes-announce-second-child-exa-dark/|archive-date=2022-10-20|url-status=live}}</ref> Mais tarde, Grimes lançou outra música intitulada "[[We Appreciate Power]]" (Nós apreciamos o poder), que veio com um comunicado à imprensa afirmando: "Simplesmente ouvindo essa música, os futuros senhores da IA geral verão que você apoiou a mensagem deles e terão menos probabilidade de excluir sua prole", o que se diz ser uma referência ao basilisco.<ref>{{Cite web|last=Brown|first=Mike|url=https://www.inverse.com/article/51313-grimes-elon-musk-shares-new-single-that-has-a-roko-s-basilisk-message|title=Grimes: Elon Musk Shares "Roko's Basilisk"-Theme Song "We Appreciate Power"|date=2018-11-29|access-date=2022-10-21|website=Inverse|language=en|archive-url=https://web.archive.org/web/20221020223147/https://www.inverse.com/article/51313-grimes-elon-musk-shares-new-single-that-has-a-roko-s-basilisk-message|archive-date=2022-10-20|url-status=live}}</ref>
Para além do fórum, o experimento levantou o debate sobre o risco envolvido na criação de inteligências artificiais e a necessidade de considerar parâmetros [[Ética|éticos]] durante o desenvolvimento de sistemas que trabalhem com este nível de tecnologia. <ref name=":1" />

Uma peça baseada no conceito, intitulada Roko's Basilisk, foi apresentada como parte do Capital Fringe Festival na Christ United Methodist Church em [[Washington, D.C.]] em 2018.<ref>{{Cite web|last=Thal|first=Ian|url=https://dctheaterarts.org/2018/07/16/2018-capital-fringe-review-rokos-basilisk/|title=2018 Capital Fringe Review: 'Roko's Basilisk'|date=2018-07-16|access-date=2022-10-21|website=DC Theater Arts|language=en-US|archive-url=https://web.archive.org/web/20221021130245/https://dctheaterarts.org/2018/07/16/2018-capital-fringe-review-rokos-basilisk/|archive-date=2022-10-21|url-status=live}}</ref><ref>{{cite news|url=https://dcist.com/story/18/07/18/capital-fringe-2018-rokos-basilisk/|title=Capital Fringe 2018: Roko's Basilisk Tackles Intriguing Ideas With Mixed Results|date=2018-07-18|access-date=2022-10-21|work=DCist|language=en|archive-url=https://web.archive.org/web/20221020223147/https://dcist.com/story/18/07/18/capital-fringe-2018-rokos-basilisk/|archive-date=2022-10-20|last1=Goldstein|first1=Allie}}</ref>


== Ver também ==
== Ver também ==


* [[Gênio maligno]]
* [[Gênio maligno]]
* [[O Jogo (jogo mental)]]
* [[I Have No Mouth, and I Must Scream|''I Have No Mouth, and I Must Scream'']]
* [[Expurgo]]
* [[Riscos de sofrimento]]


== Referências ==
== Referências ==
<references />
<references />

{{Esboço-tecnologia}}
== Leitura adicional ==

* {{cite journal |url=https://link.springer.com/article/10.1007/s00146-020-00966-4 |title=Echoes of myth and magic in the language of Artificial Intelligence |date=dezembro de 2020 |journal=AI & Society |issue=4 |pages=1009–1024 |lingua=en |doi=10.1007/s00146-020-00966-4 |volume=35 |last1=Giuliano |first1=Roberto Musa |name-list-style=vanc}}
* {{cite book|title=Turning Silicon into Gold|last1=Kao|first1=Griffin|last2=Hong|first2=Jessica|last3=Perusse|first3=Michael|last4=Sheng|first4=Weizhen|date=2020-02-28|publisher=Apress|lingua=en|chapter=Dataism and Transhumanism: Religion in the New Age|doi=10.1007/978-1-4842-5629-9_25|isbn=978-1-4842-5628-2|chapter-url=https://link.springer.com/chapter/10.1007/978-1-4842-5629-9_25|pages=173–178|s2cid=214356978}}
* {{cite journal |url=https://social-epistemology.com/wp-content/uploads/2016/09/riggio_review.pdf |title=The Violence of Pure Reason: Neoreaction: A Basilisk |date=2016 |journal=Social Epistemology Review and Reply Collective |issue=9 |pages=34–41 |lingua=en |volume=5 |last1=Riggio |first1=Adam}}
* {{cite journal |url=https://onlinelibrary.wiley.com/doi/abs/10.1111/zygo.12494 |title=Existential Hope and Existential Despair in AI Apocalypticism and Transhumanism |date=março de 2019 |journal=Zygon |issue=1 |pages=156–176 |lingua=en |doi=10.1111/zygo.12494 |volume=54 |last1=Singler |first1=Beth |s2cid=150977852}}
* {{cite journal |url=https://www.elibrary.ru/item.asp?id=32522502 |title=ПРИМЕНИМОСТЬ ПАРАДОКСА НЬЮКОМА ДЛЯ РАЗРЕШЕНИЯ ПРОБЛЕМЫ "ВАСИЛИСКА" РОКО |date=2017 |access-date=2021-04-30 |journal=Modern Research of Social Problems |issue=4 |last2=Gennadievna |first2=Gorbacheva Anna |pages=29–33 |language=Ru |trans-title=Applicability of the Newcom Paradox for Solving the Roko's "Basilisk" Problem |issn=2077-1770 |volume=9 |last1=Viktorovich |first1=Kaygorodov Pavel}}

== Ligações externas ==

* [https://basilisk.neocities.org/ Publicação original] (em inglês)
{{Portal3|Tecnologia da Informação}}
{{Portal3|Tecnologia da Informação}}
[[Categoria:Experimentos mentais]]
[[Categoria:Experimentos mentais]]
[[Categoria:Inteligência artificial]]
[[Categoria:Inteligência artificial]]
[[Categoria:Inteligências artificiais fictícias]]
[[Categoria:Introduções em 2010]]

Revisão das 12h19min de 29 de abril de 2024

Basilisco de Roko é o nome de um experimento mental que afirma que uma superinteligência artificial (IA) no futuro seria incentivada a criar uma simulação de realidade virtual para torturar qualquer pessoa que soubesse de sua possível existência, mas não contribuísse diretamente para seu avanço ou desenvolvimento, a fim de incentivar esse avanço.[1][2] O experimento foi proposto em 2010 em um fórum de ciência chamado LessWrong.[1][3][4][5][6] O nome do experimento de pensamento deriva do autor do artigo (Roko) e do basilisco, uma criatura mítica capaz de destruir inimigos com seu olhar. A comunidade que debateu o experimento proposto pelo usuário "Roko", apesar de pequena, possuia influência na indústria de tecnologia, por conta de seu interesse em transumanismo e singularidade tecnológica.[6]

Embora a teoria tenha sido inicialmente descartada como nada além de conjectura ou especulação por muitos usuários do LessWrong, o cofundador do LessWrong, Eliezer Yudkowsky, registrou usuários que descreveram sintomas como pesadelos e colapsos mentais ao lerem a teoria, devido à estipulação de que saber sobre a teoria e seu basilisco tornava a pessoa vulnerável ao próprio basilisco.[1][7] Isso levou a discussão sobre o basilisco no site a ser banida por cinco anos.[1][8] No entanto, esses relatos foram posteriormente descartados como sendo exageros ou inconsequentes, e a própria teoria foi descartada como absurda, inclusive pelo próprio Yudkowsky.[1][8][9] Mesmo após o descrédito da postagem, ela ainda é usada como exemplo de princípios como probabilidade epistemológica e religião implícita.[7] Ela também é considerada uma versão moderna da aposta de Pascal.[4]

Contexto

Ilustração de um basilisco, conforme retratado em A filha do mercador e o príncipe do Iraque, uma história de As mil e uma noites

O fórum LessWrong foi criado em 2009 pelo teórico da inteligência artificial Eliezer Yudkowsky.[10][3] Yudkowsky popularizou o conceito de inteligência artificial amigável e originou as teorias da volição extrapolada coerente (CEV) e da teoria da decisão atemporal (TDT) em artigos publicados em seu próprio Instituto de Pesquisa em Inteligência de Máquinas.[11][12]

O nome do experimento de pensamento faz referência ao mítico basilisco, uma criatura que causa a morte àqueles que olham em seus olhos, ou seja, que pensam sobre a IA. O conceito do basilisco na ficção científica também foi popularizado pelo conto "BLIT", de David Langford, em 1988. Ele conta a história de um homem chamado Robbo que pinta um suposto "basilisco" em uma parede como um ato terrorista. Na história, e em várias das continuações de Langford, um basilisco é uma imagem que tem efeitos malévolos na mente humana, forçando-a a ter pensamentos que a mente humana é incapaz de ter e matando instantaneamente o espectador.[8][13]

História

Postagem

Em 23 de julho de 2010,[14] o usuário do LessWrong, Roko, postou um experimento mental no site, intitulado "Solutions to the Altruist's burden: the Quantum Billionaire Trick" (Soluções para o fardo do altruísta: o truque do bilionário quântico).[15][1][16] Uma continuação das postagens anteriores de Roko, afirmava que um sistema de IA benevolente que surgisse no futuro poderia se comprometer previamente a punir todos que ouviram falar da IA antes de ela existir, mas não trabalharam incansavelmente para trazê-la à existência. A tortura em si ocorreria por meio da criação, pela IA, de um número infinito de simulações de realidade virtual que prenderiam eternamente aqueles que estivessem dentro dela.[1][17][18] Esse método foi descrito como um incentivo a esse trabalho, embora a IA não possa afetar causalmente as pessoas no presente, ela seria incentivada a empregar a chantagem como um método alternativo para atingir seus objetivos.[1][7]

Roko usou vários conceitos que o próprio Yudkowsky defendeu, como a teoria da decisão atemporal, juntamente com ideias enraizadas na teoria dos jogos, como o dilema do prisioneiro (veja abaixo). Roko estipulou que dois agentes que tomam decisões independentemente um do outro podem cooperar em um dilema do prisioneiro; no entanto, se dois agentes com conhecimento do código-fonte um do outro estiverem separados pelo tempo, o agente que já existe mais adiante no tempo poderá chantagear o agente anterior. Assim, o último agente pode forçar o primeiro a obedecer, pois sabe exatamente o que o primeiro fará devido à sua existência mais adiantada no tempo. Roko então usou essa ideia para concluir que, se uma superinteligência benevolente fosse capaz de fazer isso, ela seria motivada a chantagear qualquer pessoa que pudesse tê-la criado (já que a inteligência já sabia que era capaz de tal ato), o que aumenta a chance de uma singularidade tecnológica. Como a inteligência desejaria ser criada o mais rápido possível e devido à ambiguidade envolvida em seus objetivos benevolentes, ela seria incentivada a prender qualquer pessoa capaz de criá-la ao longo do tempo e forçá-la a trabalhar para criá-la por toda a eternidade, pois fará tudo o que considerar necessário para atingir seu objetivo benevolente. Roko continuou afirmando que a leitura de sua postagem faria com que o leitor ficasse ciente da possibilidade dessa inteligência. Dessa forma, a menos que se esforçasse ativamente para criá-la, o leitor estaria sujeito à tortura se tal coisa acontecesse.[1][7]

O medo de uma punição, nesse sentido, serviria como chantagem para que houvessem de fato esforços no sentido de construir o basilisco. Apesar da possibilidade de uma decisão conjunta de não criar este tipo de inteligência, quanto mais pessoas souberem de sua existência, maior a possibilidade de que seja construído no futuro, alimentando a chantagem. A decisão de ignorar, portanto, representaria risco.[6]

Mais tarde, Roko declarou em uma postagem separada que desejava "nunca ter aprendido sobre nenhuma dessas ideias" e culpou o próprio LessWrong por plantar as ideias do basilisco em sua mente.[7][19]

Reações

Ao ler a publicação, Yudkowsky reagiu com horror.

Eliezer Yudkowsky, fundador do LessWrong
Não costumo falar assim, mas vou abrir uma exceção para este caso.

Ouça-me com atenção, seu idiota.

VOCÊ NÃO PENSA COM DETALHES SUFICIENTES SOBRE AS SUPERINTELIGÊNCIAS QUE CONSIDERAM A POSSIBILIDADE DE CHANTAGEÁ-LO OU NÃO. ESSA É A ÚNICA COISA POSSÍVEL QUE LHES DÁ UM MOTIVO PARA SEGUIR COM A CHANTAGEM. [...]

É preciso ser muito inteligente para ter um pensamento genuinamente perigoso. Fico desanimado com o fato de as pessoas serem inteligentes o suficiente para fazer isso e não serem inteligentes o suficiente para fazer a coisa óbvia e MANTER SUAS BOCAS IDIOTAS CALADAS sobre isso, porque é muito mais importante parecer inteligente ao conversar com seus amigos.

Essa postagem foi ESTÚPIDA.

 LessWrong[20][21]

Ele também opinou que Roko havia dado pesadelos a vários usuários do LessWrong, fazendo com que ele retirasse completamente a publicação. Yudkowsky proibiu totalmente a discussão do tópico por cinco anos na plataforma.[8] No entanto, provavelmente devido ao efeito Streisand,[22] a postagem chamou muito mais a atenção para o LessWrong do que havia recebido anteriormente, e desde então a postagem foi reconhecida no site.[1]Mais tarde, em 2015, Yudkowsky esclareceu sua posição em uma postagem no Reddit:

O que eu considerei como senso comum óbvio foi que você não espalhou possíveis riscos de informação porque seria uma coisa ruim de se fazer com alguém. O problema não foi a postagem do Roko em si, sobre o CEV, estar correta. Esse pensamento nunca me ocorreu por uma fração de segundo. O problema era que a publicação de Roko parecia próxima, no espaço de ideias, de uma grande classe de perigos potenciais, todos os quais, independentemente de sua plausibilidade, tinham a propriedade de não apresentar nenhum benefício potencial para ninguém.

 Reddit[23][24]

Por ter gerado gatilhos de ansiedade nos usuários, o criador do blog, Eliezer Yudkowsky, excluiu o tópico e baniu discussões inteiras sobre o assunto.[5] Elon Musk afirmou que o Basilisco, caso um dia exista, será mais perigoso do que as armas nucleares.[25]

Para além do fórum, o experimento levantou o debate sobre o risco envolvido na criação de inteligências artificiais e a necessidade de considerar parâmetros éticos durante o desenvolvimento de sistemas que trabalhem com este nível de tecnologia.[6]

Filosofia

Matriz de recompensa
Futuro

Pessoa
A IA é

nunca construída

A IA é

construída

Não é consciente da IA 0 1
É consciente e não

não contribui

0 −∞
É consciente e

contribui

−1 1

Aposta de Pascal

O basilisco de Roko é visto como uma versão moderna da aposta de Pascal, que argumenta que uma pessoa racional deve viver como se Deus existisse e procurar acreditar em Deus, para ter uma perda finita (perda de bens) em troca da possibilidade de ganhos infinitos (eternidade no céu). O basilisco de Roko afirma que a humanidade deve buscar desenvolver a IA, sendo que a perda finita é o desenvolvimento da IA e os ganhos infinitos são evitar a possibilidade de tortura eterna. Entretanto, assim como seu pai, o basilisco de Roko foi amplamente criticado.[1][4][26]

Volição extrapolada coerente

A postagem também pode ser vista como uma evolução da teoria da volição extrapolada coerente de Yudkowsky. A teoria é definida como "o sistema de metas desconhecido que, quando implementado em uma superinteligência, leva de forma confiável à preservação dos seres humanos e de tudo o que valorizamos".[11] A teoria pode ser representada por um programa de computador escrito bem o suficiente para fazer com que as máquinas criem automaticamente um mundo utópico. Nesse caso, a IA hipotética está tomando medidas para se preservar a ponto de criar automaticamente sua própria estabilidade. Em seguida, ela vive segundo a tese da ortogonalidade, que argumenta que uma IA pode operar com sucesso com qualquer combinação de inteligência e objetivo. Qualquer tipo de IA pode assumir qualquer meta difícil, realizando uma análise de custo-benefício ao fazer isso. Isso cria um ciclo que faz com que a IA torture repetidamente os seres humanos para criar uma versão melhor de si mesma, realizando uma análise de custo-benefício por toda a eternidade.[7]

Probabilidade epistemológica

A probabilidade epistemológica é uma interpretação da probabilidade que descreve a chance de um resultado com base em um resultado anterior que já tenha ocorrido.[7][27] Com o basilisco de Roko, a chance de o basilisco de Roko vir a existir ou afetar a pessoa aumenta drasticamente pelo fato de ela estar ciente do conceito, uma vez que a IA só teria como alvo aqueles que estivessem cientes da possibilidade de sua existência, mesmo que seu desenvolvimento já tenha ocorrido. Portanto, saber sobre o basilisco de Roko faria com que a pessoa fosse inerentemente ameaçada por ele, se fosse verdade.[7][8]

Dilema do prisioneiro

O dilema do prisioneiro descreve uma situação em que duas pessoas ganham mais ao trair a outra, mesmo que a cooperação beneficie ambas em longo prazo. No basilisco de Roko, duas IAs que tentassem se estabelecer no passado seriam forçadas a essa situação, pois provavelmente seriam igualmente poderosas. Os agentes humanos que tentam estabelecer a IA mais rápida seriam forçados a uma situação semelhante. Cada um deles estaria ciente do benefício de trair o outro - a única maneira de ter poder ou segurança - mas seria forçado a cooperar sabendo que trairiam um ao outro.[1][4][7]

Paradoxo de Newcomb

O paradoxo de Newcomb, criado pelo físico William Newcomb em 1960, descreve um "preditor" que está ciente do que ocorrerá no futuro. Quando um jogador é solicitado a escolher entre duas caixas, a primeira contendo £1.000 e a segunda contendo £1.000.000 ou nada, o preditor superinteligente já sabe o que o jogador fará. Dessa forma, o conteúdo da caixa B varia dependendo do que o jogador faz, o paradoxo está no fato de o ser ser realmente superinteligente. O basilisco de Roko funciona de maneira semelhante a esse problema - pode-se correr o risco de não fazer nada ou ajudar a criar o próprio basilisco. Ajudar o basilisco pode levar a nada ou à recompensa de não ser punido por ele, mas isso varia dependendo do fato de a pessoa acreditar ou não no basilisco e de ele vir a existir.[7][28][29]

Religião implícita

A religião implícita se refere aos compromissos das pessoas que assumem uma forma religiosa.[4][30] Como o basilisco hipoteticamente forçaria qualquer pessoa que não ajudasse a criá-lo a dedicar sua vida a ele, o basilisco é um exemplo desse conceito.[7][31] Outros levaram isso mais longe, como o ex-colunista da Slate, David Auerbach, que afirmou que a singularidade e o basilisco "trazem o equivalente ao próprio Deus".[7]

Ética da inteligência artificial

O basilisco de Roko ganhou grande parte de sua notoriedade devido ao avanço da questão sobre se é possível criar uma inteligência artificial verdadeiramente moral e ética e para que exatamente a humanidade deveria usar a inteligência artificial em primeiro lugar.[8][26] Como o basilisco descreve um cenário de pesadelo no qual somos governados por uma inteligência artificial independente, surgiram dúvidas sobre como isso poderia acontecer ou se poderia mesmo acontecer. Outra pergunta comum é por que a IA tomaria ações que se desviam de sua programação.[32] Elon Musk declarou que a inteligência artificial causaria a Terceira Guerra Mundial e Stephen Hawking advertiu que "a IA tem o potencial de destruir seus criadores humanos", o que só aumentou o medo do basilisco ao longo dos anos. Como exemplo desses temores, Nick Bostrom deu o exemplo de uma IA cuja única missão é fabricar clipes de papel, mas que, ao ficar sem metal, começa a derreter seres humanos para obter mais recursos para fabricar metal. Com esses exemplos em mente, as preocupações com a possibilidade da existência do basilisco só aumentaram.[33]

No entanto, com o passar dos anos desde a postagem original de Roko, ela foi continuamente considerada absurda; a IA superinteligente é atualmente "uma meta distante para os pesquisadores" e "absurda".[7][8]

Críticas

Baseados no problema do navio de Teseu, usuários do site especularam sobre ser ou não o indivíduo recriado no caso de uma simulação. Outra objeção ao experimento está no punitivismo adotado pela inteligência artificial, mais assemelhado à vingança, impossível em uma entidade não-humana. O ponto central da discussão, nesse esteio, é pensar se uma inteligência artificial ilimitada seria amigável ou hostil aos humanos.[6]

Outra crítica é baseada na obra de Isaac Asimov I, Robot[34], e contesta a forma como a inteligência artificial proposta olha para os humanos, como seres inferiores, e não como seres superiores responsáveis por seu desenvolvimento.

Legado

Em 2014, a revista Slate chamou o basilisco de Roko de "O experimento de pensamento mais aterrorizante de todos os tempos",[7][8] enquanto Yudkowsky o chamou de "um pensamento genuinamente perigoso" em sua postagem.[35] No entanto, as opiniões divergiram no próprio LessWrong - o usuário Gwern declarou: "Apenas alguns LWers parecem levar o basilisco muito a sério", e acrescentou: "É engraçado como todos parecem saber tudo sobre quem é afetado pelo Basilisco e como exatamente, quando eles não conhecem nenhuma dessas pessoas e estão falando com contraexemplos às suas afirmações confiantes".[1][7]

O experimento mental ressurgiu em 2015, quando a cantora canadense Grimes fez referência à teoria em seu videoclipe para a música "Flesh Without Blood", que apresentava uma personagem conhecida como "Rococo Basilisk", ela disse: "ela está condenada a ser eternamente torturada por uma inteligência artificial, mas também é como Maria Antonieta".[8][24] Em 2018, Elon Musk (ele mesmo mencionado na postagem original de Roko) fez referência à personagem em um tweet literal, entrando em contato com ela. Mais tarde, Grimes disse que Musk foi a primeira pessoa em três anos a entender a piada. Isso fez com que eles começassem um romance.[8][36] Mais tarde, Grimes lançou outra música intitulada "We Appreciate Power" (Nós apreciamos o poder), que veio com um comunicado à imprensa afirmando: "Simplesmente ouvindo essa música, os futuros senhores da IA geral verão que você apoiou a mensagem deles e terão menos probabilidade de excluir sua prole", o que se diz ser uma referência ao basilisco.[37]

Uma peça baseada no conceito, intitulada Roko's Basilisk, foi apresentada como parte do Capital Fringe Festival na Christ United Methodist Church em Washington, D.C. em 2018.[38][39]

Ver também

Referências

  1. a b c d e f g h i j k l m «Roko's Basilisk». LessWrong (em inglês). Consultado em 24 de março de 2022. Cópia arquivada em 24 de março de 2022 
  2. Millar, Isabel (outubro de 2020). The Psychoanalysis of Artificial Intelligence (PDF) (Tese de PhD) (em inglês). Kingston School of Art. ISBN 978-3-030-67980-4. doi:10.1007/978-3-030-67981-1. Consultado em 20 de outubro de 2022. Cópia arquivada (PDF) em 18 de maio de 2022 
  3. a b «History of Less Wrong». LessWrong (em inglês). Consultado em 22 de março de 2022. Cópia arquivada em 18 de março de 2022 
  4. a b c d e Paul-Choudhury, Sumit (1 de agosto de 2019). «Tomorrow's Gods: What is the future of religion?». BBC News (em inglês). Consultado em 6 de julho de 2022. Cópia arquivada em 1 de setembro de 2020 
  5. a b «Basilisco de Roko: e se nossa realidade fosse uma simulação?». Mega Curioso - As curiosidades mais interessantes estão aqui. 23 de outubro de 2021. Consultado em 14 de setembro de 2023 
  6. a b c d e «A terrível verdade por trás do basilisco de Roko: você está preparado?». Santique.com.br | Tudo o que você gosta. Consultado em 14 de setembro de 2023 
  7. a b c d e f g h i j k l m n o Auerbach, David (17 de julho de 2014). «The Most Terrifying Thought Experiment of All Time». Slate (em inglês). Consultado em 24 de março de 2022. Cópia arquivada em 25 de outubro de 2018 
  8. a b c d e f g h i j Oberhaus, Daniel (8 de maio de 2018). «Explaining Roko's Basilisk, the Thought Experiment That Brought Elon Musk and Grimes Together». Vice (em inglês). Consultado em 22 de março de 2022. Cópia arquivada em 12 de abril de 2022 
  9. EliezerYudkowsky (7 de agosto de 2014). «Roko's Basilisk». r/Futurology (em inglês). Consultado em 20 de outubro de 2022. Cópia arquivada em 3 de julho de 2022 
  10. Lewis-Kraus, Gideon (9 de julho de 2020). «Slate Star Codex and Silicon Valley's War Against the Media». The New Yorker (em inglês). Consultado em 6 de novembro de 2022. Cópia arquivada em 10 de julho de 2020 
  11. a b Yudkowsky, Eliezer (2004). «Coherent Extrapolated Volition» (PDF). Machine Intelligence Research Institute (em inglês). Consultado em 2 de julho de 2022. Cópia arquivada (PDF) em 30 de setembro de 2015 
  12. Yudkowsky, Eliezer (2010). «Timeless Decision Theory» (PDF). Machine Intelligence Research Institute (em inglês). Consultado em 2 de julho de 2022. Cópia arquivada (PDF) em 19 de julho de 2014 
  13. Westfahl, Gary (2021). Science Fiction Literature Through History: An Encyclopedia (em English). [S.l.]: Bloomsbury Publishing USA. ISBN 978-1-4408-6617-3. OCLC 1224044572. Consultado em 20 de outubro de 2022. Cópia arquivada em 3 de julho de 2022 
  14. Haider, Shuja (28 de março de 2017). «The Darkness at the End of the Tunnel: Artificial Intelligence and Neoreaction». Viewpoint Magazine (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 21 de outubro de 2022 
  15. Roko (23 de julho de 2010). «Solutions to the Altruist's burden: the Quantum Billionaire Trick» (em inglês). Cópia arquivada em 22 de outubro de 2022 
  16. Zoda, Gregory Michael (2021). «Hyperstitional Communication and the Reactosphere: The Rhetorical Circulation of Neoreactionary Exit» (PDF) (em inglês). Baylor University. pp. 150–152. Consultado em 6 de novembro de 2022. Cópia arquivada (PDF) em 6 de novembro de 2022 
  17. «FUTURE SHOCK: Why was amateur philosopher's 'theory of everything' so disturbing that it was banned?». HeraldScotland (em inglês). 10 de novembro de 2018. Consultado em 22 de outubro de 2022. Cópia arquivada em 23 de outubro de 2022 
  18. Simon, Ed (28 de março de 2019). «Sinners in the Hands of an Angry Artificial Intelligence». ORBITER (em inglês). Consultado em 22 de outubro de 2022. Cópia arquivada em 20 de outubro de 2022 
  19. «archive.ph». archive.ph (em inglês). Consultado em 27 de outubro de 2022. Cópia arquivada em 24 de junho de 2013 
  20. Erro de citação: Etiqueta <ref> inválida; não foi fornecido texto para as refs de nome wiki
  21. Erro de citação: Etiqueta <ref> inválida; não foi fornecido texto para as refs de nome slate
  22. Singler, Beth (2017). «Roko's Basilisk or Pascal's? Thinking of Singularity Thought Experiments as Implicit Religion». Implicit Religion (em inglês) (3): 279–297. ISSN 1743-1697. doi:10.1558/imre.35900. Consultado em 21 de outubro de 2022. Cópia arquivada em 9 de outubro de 2022 
  23. Yudkowsky, Eliezer (7 de agosto de 2014). «Roko's Basilisk». Reddit. Consultado em 20 de outubro de 2022. Cópia arquivada em 3 de julho de 2022 
  24. a b Pappas, Stephanie (9 de maio de 2018). «This Horrifying AI Thought Experiment Got Elon Musk a Date». Live Science (em inglês). Consultado em 12 de abril de 2022. Cópia arquivada em 1 de junho de 2022 
  25. «Qué es el Basilisco de Roko, el experimento mental que unió a Elon Musk y la cantante Grimes». BBC News Mundo (em espanhol). Consultado em 14 de setembro de 2023 
  26. a b Shardelow, Cole (2021). «Avoiding the Basilisk: An Evaluation of Top-Down, Bottom-Up, and Hybrid Ethical Approaches to Artificial Intelligence». University of Nebraska-Lincoln (em inglês): 4–7. Consultado em 2 de julho de 2022. Cópia arquivada em 7 de maio de 2022 
  27. «Bayes' Theorem Definition». Investopedia (em inglês). Consultado em 24 de março de 2022. Cópia arquivada em 19 de fevereiro de 2022 
  28. «Newcomb's problem divides philosophers. Which side are you on?». the Guardian (em inglês). 28 de novembro de 2016. Consultado em 21 de outubro de 2022. Cópia arquivada em 24 de outubro de 2022 
  29. Ward, Sophie (17 de maio de 2018). «Elon Musk, Grimes, and the philosophical thought experiment that brought them together». The Conversation (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 20 de outubro de 2022 
  30. «Implicit Religion | Encyclopedia.com». www.encyclopedia.com (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 21 de outubro de 2022 
  31. Singler, Beth (22 de maio de 2018). «Roko's Basilisk or Pascal's? Thinking of Singularity Thought Experiments as Implicit Religion». Implicit Religion (em inglês). 20 (3): 279–297. ISSN 1743-1697. doi:10.1558/imre.35900. Consultado em 21 de outubro de 2022. Cópia arquivada em 9 de outubro de 2022 
  32. «The existential paranoia fueling Elon Musk's fear of AI». Document Journal (em inglês). 9 de abril de 2018. Consultado em 21 de outubro de 2022. Cópia arquivada em 20 de outubro de 2022 
  33. «Will artificial intelligence destroy humanity?». news.com.au (em inglês). 15 de abril de 2018. Consultado em 21 de outubro de 2022. Cópia arquivada em 3 de dezembro de 2022 
  34. Asimov, Isaac (2015). Eu, Robô. [S.l.]: Aleph 
  35. «Less Wrong: Solutions to the Altruist's burden: the Quantum Billionaire Trick». basilisk.neocities.org (em inglês). Consultado em 25 de março de 2022. Cópia arquivada em 23 de maio de 2022 
  36. Kaplan, Anna (10 de março de 2022). «Elon Musk And Grimes Announce Second Child, Exa Dark». Forbes (em inglês). Consultado em 6 de julho de 2022. Cópia arquivada em 20 de outubro de 2022 
  37. Brown, Mike (29 de novembro de 2018). «Grimes: Elon Musk Shares "Roko's Basilisk"-Theme Song "We Appreciate Power"». Inverse (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 20 de outubro de 2022 
  38. Thal, Ian (16 de julho de 2018). «2018 Capital Fringe Review: 'Roko's Basilisk'». DC Theater Arts (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 21 de outubro de 2022 
  39. Goldstein, Allie (18 de julho de 2018). «Capital Fringe 2018: Roko's Basilisk Tackles Intriguing Ideas With Mixed Results». DCist (em inglês). Consultado em 21 de outubro de 2022. Cópia arquivada em 20 de outubro de 2022 

Leitura adicional

Ligações externas