Risco catastrófico global: diferenças entre revisões

Origem: Wikipédia, a enciclopédia livre.
Conteúdo apagado Conteúdo adicionado
m
Linha 69: Linha 69:
Além dos riscos conhecidos e tangíveis, podem ocorrer eventos imprevisíveis de extinção do [[Teoria do cisne preto|cisne negro]], apresentando um problema metodológico adicional.<ref>{{Citar periódico|titulo=Existential Risks: Exploring a Robust Risk Reduction Strategy|url=https://philpapers.org/archive/JEBERE.pdf|jornal=Science and Engineering Ethics|volume=21|páginas=541–54|doi=10.1007/s11948-014-9559-3|pmid=24891130}}</ref>
Além dos riscos conhecidos e tangíveis, podem ocorrer eventos imprevisíveis de extinção do [[Teoria do cisne preto|cisne negro]], apresentando um problema metodológico adicional.<ref>{{Citar periódico|titulo=Existential Risks: Exploring a Robust Risk Reduction Strategy|url=https://philpapers.org/archive/JEBERE.pdf|jornal=Science and Engineering Ethics|volume=21|páginas=541–54|doi=10.1007/s11948-014-9559-3|pmid=24891130}}</ref>


== Importância moral do risco existencial ==
{{referências}}
Alguns estudiosos são fortemente favoráveis à redução do risco existencial, alegando que ele beneficia muito as gerações futuras. [[Derek Parfit]] argumenta que a extinção seria uma grande perda, porque nossos descendentes poderiam sobreviver por quatro bilhões de anos antes que a [[Sol|expansão do Sol]] torne a Terra inabitável.<ref>{{Citar livro|título=Reasons and Persons|ultimo=Parfit|primeiro=Derek|data=1984|páginas=453–454|publicação=Oxford University Press}}</ref><ref>{{Citar jornal|primeiro3=Damian|titulo=Date set for desert Earth|url=http://news.bbc.co.uk/2/hi/sci/tech/specials/washington_2000/649913.stm|jornal=BBC News Online}}</ref> [[Nick Bostrom]] argumenta que existe um potencial ainda maior na colonização do espaço. Se os futuros seres humanos colonizarem o espaço, eles poderão suportar um número muito grande de pessoas em outros planetas, com duração potencial de trilhões de anos.<ref name="waste" /> Portanto, reduzir o risco existencial em até uma pequena quantidade teria um impacto muito significativo no número esperado de pessoas que existirão no futuro.

O [[ Desconto exponencial|desconto exponencial]] pode tornar esses benefícios futuros muito menos significativos. No entanto, Jason Matheny argumentou que esse desconto é inadequado ao avaliar o valor da redução de risco existencial.<ref name="Matheny xrisk" />

Alguns economistas discutiram a importância dos riscos catastróficos globais, embora não existenciais. Martin Weitzman argumenta que a maioria dos danos econômicos esperados das mudanças climáticas pode vir da pequena chance de que o aquecimento exceda muito as expectativas de médio alcance, resultando em danos catastróficos.<ref name="weitzman1">{{Citar periódico|primeiro6=Martin|titulo=On modeling and interpreting the economics of catastrophic climate change|url=http://dash.harvard.edu/bitstream/handle/1/3693423/Weitzman_OnModeling.pdf|jornal=The Review of Economics and Statistics|volume=91|páginas=1–19|doi=10.1162/rest.91.1.1|last=Weitzman}}</ref> [[Richard Posner]] argumentou que estamos fazendo muito pouco, em geral, sobre riscos pequenos e difíceis de estimar de catástrofes em larga escala.<ref>{{Citar livro|título=Catastrophe: Risk and Response|ultimo=Posner|primeiro=Richard|data=2004|publicação=Oxford University Press}}</ref>

Inúmeros [[Viés cognitivo|desvios cognitivos]] podem influenciar o julgamento das pessoas sobre a importância dos riscos existenciais, incluindo [[ Insensibilidade do escopo|insensibilidade ao escopo]], [[ Desconto hiperbólico|desconto hiperbólico]], [[heurística de disponibilidade]], [[ Falácia de conjunção|falácia]] da [[ Falácia de conjunção|conjunção]], [[Heurística do afeto|heurística de afetação]] e [[ Efeito excesso de confiança|efeito de excesso de confiança]].<ref name="Biases">{{Citar periódico|titulo=Cognitive Biases Potentially Affecting Judgment of Global Risks|url=https://intelligence.org/files/CognitiveBiases.pdf|jornal=Global Catastrophic Risks|páginas=91–119|bibcode=2008gcr..book...86Y}}</ref>

A insensibilidade do escopo influencia o quão ruim as pessoas consideram a extinção da raça humana. Por exemplo, quando as pessoas são motivadas a doar dinheiro para causas altruístas, a quantidade que estão dispostas a dar não aumenta linearmente com a magnitude da questão: as pessoas ficam tão preocupadas com cerca de 200.000 pássaros que ficam presos no petróleo quanto com 2.000.<ref>Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), ''Contingent Valuation:A Critical Assessment'', pp. 91–159 (Amsterdam: North Holland).</ref> Da mesma forma, as pessoas geralmente estão mais preocupadas com ameaças a indivíduos do que a grupos maiores.<ref name="Biases" />

Existem razões econômicas que podem explicar por que tão pouco esforço está sendo gasto na redução de riscos existenciais. É um bem global; portanto, mesmo que uma nação grande o diminua, essa nação terá apenas uma pequena fração do benefício de fazê-lo. Além disso, a grande maioria dos benefícios pode ser desfrutada por gerações futuras muito distintas, e embora esses quatrilhões de pessoas futuras estariam, em teoria, talvez dispostos a pagar quantias massivas pela redução existencial de riscos, não existe mecanismo para essa transação.<ref name="priority" />

== Fontes potenciais de risco ==
Algumas fontes de risco catastrófico são naturais, como impactos de meteoros ou supervulcões. Alguns deles causaram extinções em massa no passado. Por outro lado, alguns riscos são causados pelo homem, como aquecimento global,<ref name="IPCC AR5 attribution">IPCC (11 November 2013): D. "Understanding the Climate System and its Recent Changes", in: [https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf Summary for Policymakers (finalized version)] {{Webarchive|url=https://web.archive.org/web/20170309115935/http://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf|date=2017-03-09}}, in: {{Harvnb|IPCC AR5 WG1|2013|p=13}}</ref> degradação ambiental, pandemias projetadas e guerra nuclear.<ref>{{Citar jornal|titulo=Global Catastrophic Risks: a summary|url=https://www.gcrpolicy.com/risks}}</ref>

=== Antropogênico ===
O Projeto [[Universidade de Cambridge|Cambridge da Universidade de Cambridge]] afirma que as "maiores ameaças" à espécie humana são criadas pelo homem; eles são inteligência artificial, aquecimento global, guerra nuclear e biotecnologia desonesta.<ref>{{Citar jornal|titulo='Terminator center' to open at Cambridge University|url=http://www.foxnews.com/tech/2012/11/26/terminator-center-to-open-at-cambridge-university/|jornal=Fox News}}</ref> O [[ Instituto Futuro da Humanidade|Instituto Futuro da Humanidade]] também afirma que a extinção humana é mais provável de resultar de causas antropogênicas do que causas naturais.<ref name="priority" /><ref name="Frequently Asked Questions">{{Citar web|titulo=Frequently Asked Questions|url=http://existential-risk.org/faq.html|obra=Existential Risk|publicação=Future of Humanity Institute}}</ref>

==== Inteligência artificial ====
Foi sugerido que o [[Ética na inteligência artificial|aprendizado de computadores]] que rapidamente se tornam [[Superinteligência|superinteligentes]] pode executar ações imprevistas ou que os [[Robô|robôs]] superariam a humanidade (um cenário de [[singularidade tecnológica]]).<ref name="billjoy">[[Bill Joy]], [https://www.wired.com/wired/archive/8.04/joy_pr.html Why the future doesn't need us]. [[Wired magazine]].</ref> Devido à sua excepcional capacidade de programação e organização e à variedade de novas tecnologias que ele poderia desenvolver, é possível que a primeira superinteligência da Terra a surgir se torne rapidamente incomparável e sem rival: é concebível que seja capaz de produzir quase qualquer resultado possível e ser capaz de frustrar virtualmente qualquer tentativa que ameaçava impedi-lo de atingir seus objetivos.<ref name="Bostrom">[[Nick Bostrom]] 2002 [http://www.nickbostrom.com/ethics/ai.html "Ethical Issues in Advanced Artificial Intelligence"]</ref> Poderia eliminar, eliminando se escolhesse, qualquer outro intelecto rival desafiador; alternativamente, pode manipulá-los ou persuadi-los a mudar seu comportamento em relação aos seus próprios interesses, ou pode apenas obstruir suas tentativas de interferência.<ref name="Bostrom" /> No livro de Bostrom, ''[[Superintelligence: Paths, Dangers, Strategies]]'', ele define isso como o problema de controle.<ref name="Bostrom2">{{Citar livro|url=|título=Superintelligence: Paths, Dangers, Strategies|ultimo=Bostrom|primeiro=Nick|data=|localização=|isbn=}}</ref> físico [[Stephen Hawking]], [[Bill Gates]], fundador da [[Microsoft]], e [[Elon Musk]], da [[SpaceX]], ecoaram essas preocupações, com Hawking teorizando que essa IA poderia "significar o fim da raça humana".<ref>{{Citar jornal|titulo=Microsoft's Bill Gates insists AI is a threat|url=https://www.bbc.co.uk/news/31047780|publicação=[[BBC News]]}}</ref>

Em 2009, a [[ Associação para o Avanço da Inteligência Artificial|Associação para o Avanço da Inteligência Artificial]] (AAAI) organizou uma conferência para discutir se computadores e robôs podem adquirir algum tipo de [[autonomia]] e quanto essas habilidades podem representar uma ameaça ou perigo. Eles observaram que alguns robôs adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência retratada na ficção científica provavelmente é improvável, mas que havia outros perigos e armadilhas em potencial.<ref name="nytimes july09">[https://www.nytimes.com/2009/07/26/science/26robot.html?_r=1&ref=todayspaper Scientists Worry Machines May Outsmart Man] By JOHN MARKOFF, NY Times, July 26, 2009.</ref> Várias fontes de mídia e grupos científicos observaram tendências separadas em diferentes áreas, que juntas podem resultar em maior funcionalidade e autonomia robótica e que apresentam algumas preocupações inerentes.<ref>[http://www.slate.com/id/2218834/ Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation]., By P. W. Singer, slate.com Thursday, May 21, 2009.</ref><ref>[https://www.engadget.com/tag/robotapocalypse robot page], engadget.com.</ref>

Uma pesquisa com especialistas em IA estimou que a chance de o aprendizado de máquina no nível humano ter um efeito de longo prazo "extremamente ruim (por exemplo, extinção humana)" sobre a humanidade é de 5%.<ref name="AI survey">{{Citar periódico|titulo=When Will AI Exceed Human Performance? Evidence from AI Experts|jornal=Journal of Artificial Intelligence Research|arxiv=1705.08807|bibcode=2017arXiv170508807G}}</ref> Uma pesquisa de 2008 do Instituto Futuro da Humanidade estimou uma probabilidade de 5% de extinção por superinteligência em 2100.<ref name=":0" /> [[ Eliezer Yudkowsky|Eliezer Yudkowsky]] acredita que os riscos da inteligência artificial são mais difíceis de prever do que quaisquer outros riscos conhecidos devido ao viés do [[antropomorfismo]] . Como as pessoas baseiam seus julgamentos de inteligência artificial em suas próprias experiências, ele afirma que subestimam o poder potencial da IA.<ref name="Yudkowsky">{{Citar livro|url=http://yudkowsky.net/singularity/ai-risk|título=Artificial Intelligence as a Positive and Negative Factor in Global Risk|ultimo=Yudkowsky|primeiro=Eliezer|ano=2008|bibcode=2008gcr..book..303Y}}</ref> {{referências}}


== Ligações externas ==
== Ligações externas ==

Revisão das 03h27min de 24 de outubro de 2019

Impressão artística de um grande impacto de asteroide. Um asteroide com força de impacto de um bilhão de bombas atômicas pode ter causado a extinção dos dinossauros.[1]

Um risco catastrófico global é um evento futuro hipotético que pode danificar o bem-estar humano em escala global,[2] inclusive prejudicando ou destruindo a civilização moderna.[3] Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial.[4]

Os possíveis riscos catastróficos globais incluem riscos antropogênicos, causados por seres humanos (tecnologia, governança, mudanças climáticas) e riscos não antropogênicos ou externos.[3] Exemplos de riscos tecnológicos são inteligência artificial hostil e biotecnologia ou nanotecnologia destrutiva. Uma governança global insuficiente ou maligna cria riscos no domínio social e político, como uma guerra global, incluindo holocausto nuclear, bioterrorismo usando organismos geneticamente modificados, ciberterrorismo destruindo infraestruturas críticas como a rede elétrica; ou a falha em gerenciar uma pandemia natural. Problemas e riscos no domínio da governança do sistema terrestre incluem aquecimento global, degradação ambiental, incluindo extinção de espécies, fome como resultado de distribuição não equitativa de recursos, superpopulação humana, falhas de safra e agricultura não sustentável.

Exemplos de riscos não antropogênicos são um evento de impacto de asteroide, uma erupção supervulcânica, uma explosão letal de raios gama, uma tempestade geomagnética destruindo equipamentos eletrônicos, mudanças climáticas naturais a longo prazo, vida extraterrestre hostil ou o previsível Sol se transformando em um gigante vermelho estrela engolindo a terra.

Classificações

Grade de escopo/intensidade do artigo de Bostrom "Prevenção de riscos existenciais como prioridade global"[5]

Catastrófico global vs. existencial

Um "risco catastrófico global" é qualquer risco que tenha pelo menos um alcance "global" e que não seja subjetivamente "imperceptível" em intensidade. Aqueles que são pelo menos "transgeracionais" (afetando todas as gerações futuras) em escopo e "terminais"[necessário esclarecer] em intensidade são classificados como riscos existenciais. Embora um risco catastrófico global possa matar a grande maioria da vida na Terra, a humanidade ainda pode se recuperar potencialmente. Um risco existencial, por outro lado, é aquele que destrói a humanidade (e, presumivelmente, todas, exceto as espécies mais rudimentares de formas de vida não-humanas e/ou plantas), totalmente ou pelo menos impede qualquer chance de recuperação da civilização.[6]

Da mesma forma, em Catastrophe: Risk and Response, Richard Posner destaca e agrupa eventos que provocam "derrocada total ou ruína" em escala global, em vez de "local ou regional". Posner destaca esses eventos como dignos de atenção especial por razões de custo-benefício, porque eles poderiam comprometer direta ou indiretamente a sobrevivência da raça humana como um todo.[7] Os eventos de Posner incluem impactos de meteoros, aquecimento global descontrolado, gosma cinzenta, bioterrorismo e acidentes com aceleradores de partículas.

Os pesquisadores têm dificuldade em estudar diretamente perto da extinção humana, uma vez que a humanidade nunca foi destruída antes.[8] Embora isso não signifique que não será no futuro, dificulta a modelagem de riscos existenciais, devido em parte ao viés de sobrevivência. No entanto, civilizações desapareceram com bastante frequência na história humana.

Probabilidade

Alguns riscos são devidos a fenômenos que ocorreram no passado da Terra e deixaram um registro geológico. Juntamente com as observações contemporâneas, é possível fazer estimativas informadas da probabilidade de ocorrência desses eventos no futuro. Por exemplo, um evento de impacto de cometa ou asteroide no nível de extinção antes do ano 2100 foi estimado em um em um milhão.[9][10][necessário esclarecer] Supervulcões são outro exemplo. Existem vários supervulcões conhecidos, incluindo o Monte Toba, que alguns dizem quase exterminou a humanidade no momento de sua última erupção. Os registros geológicos sugerem que esse supervulcão em particular reaparece a cada 50.000 anos.[11][12][necessário esclarecer]

Sem o benefício de registros geológicos e observação direta, o perigo relativo representado por outras ameaças é muito mais difícil de calcular. Além disso, uma coisa é estimar a probabilidade de um evento ocorrer, outra coisa é avaliar a probabilidade de um evento causar extinção se ocorrer, e o mais difícil de tudo, o risco registrado pelos efeitos sinérgicos de vários eventos. simultaneamente.[carece de fontes?]

Dadas as limitações do cálculo e modelagem comuns, a elicitação de especialistas é frequentemente usada para obter estimativas de probabilidade.[13] Em 2008, uma pesquisa informal de especialistas sobre diferentes riscos catastróficos globais na Conferência Global de Riscos Catastróficos da Universidade de Oxford sugeriu uma chance de 19% de extinção humana até o ano 2100. O relatório da conferência adverte que os resultados devem ser tomados "com um grão de sal", os resultados não pretendiam capturar todos os grandes riscos e não incluíam coisas como as mudanças climáticas, e provavelmente refletem muitos preconceitos cognitivos dos participantes da conferência.[14]

Risco Probabilidade estimada

para extinção humana

antes de 2100

Probabilidade geral
19%
Armas de nanotecnologia molecular
5%
IA superinteligente
5%
Todas as guerras

(incluindo guerras civis)

4%
Pandemia projetada
2%
Guerra nuclear
1%
Acidente de nanotecnologia
0.5%
Pandemia natural
0.05%
Terrorismo nuclear
0.03%

Origem da tabela: Future of Humanity Institute, 2008.[15]

O relatório anual de 2016 da Global Challenges Foundation estima que um americano médio tem mais de cinco vezes mais chances de morrer durante um evento de extinção humana do que em um acidente de carro.[16][17]

Existem desafios metodológicos significativos na estimativa desses riscos com precisão. Foi dada muita atenção aos riscos para a civilização humana nos próximos 100 anos, mas a previsão para esse período de tempo é difícil. Os tipos de ameaças colocadas pela natureza têm sido relativamente constantes, embora isso tenha sido contestado[18] e novos riscos possam ser descobertos. Ameaças antropogênicas, no entanto, provavelmente mudarão drasticamente com o desenvolvimento de novas tecnologias; Embora os vulcões tenham sido uma ameaça ao longo da história, as armas nucleares têm sido um problema apenas desde o século XX. Historicamente, a capacidade dos especialistas em prever o futuro nesses prazos se mostrou muito limitada. Ameaças provocadas pelo homem, como guerra nuclear ou nanotecnologia, são mais difíceis de prever do que ameaças naturais, devido às dificuldades metodológicas inerentes às ciências sociais. Em geral, é difícil estimar a magnitude do risco desse ou de outros perigos, principalmente porque as relações internacionais e a tecnologia podem mudar rapidamente.

Os riscos existentes apresentam desafios únicos à previsão, ainda mais do que outros eventos de longo prazo, devido aos efeitos da seleção da observação. Ao contrário da maioria dos eventos, o fracasso de um evento completo de extinção ocorrer no passado não é uma evidência contra sua probabilidade no futuro, porque todo mundo que passou por esse evento de extinção não tem observadores; portanto, independentemente de sua frequência, nenhuma civilização observa. riscos existenciais em sua história.[8] Esses problemas antrópicos podem ser evitados observando evidências que não produzem efeitos de seleção, como crateras de impacto de asteroides na Lua ou avaliando diretamente o provável impacto de novas tecnologias.[5]

Além dos riscos conhecidos e tangíveis, podem ocorrer eventos imprevisíveis de extinção do cisne negro, apresentando um problema metodológico adicional.[19]

Importância moral do risco existencial

Alguns estudiosos são fortemente favoráveis à redução do risco existencial, alegando que ele beneficia muito as gerações futuras. Derek Parfit argumenta que a extinção seria uma grande perda, porque nossos descendentes poderiam sobreviver por quatro bilhões de anos antes que a expansão do Sol torne a Terra inabitável.[20][21] Nick Bostrom argumenta que existe um potencial ainda maior na colonização do espaço. Se os futuros seres humanos colonizarem o espaço, eles poderão suportar um número muito grande de pessoas em outros planetas, com duração potencial de trilhões de anos.[6] Portanto, reduzir o risco existencial em até uma pequena quantidade teria um impacto muito significativo no número esperado de pessoas que existirão no futuro.

O desconto exponencial pode tornar esses benefícios futuros muito menos significativos. No entanto, Jason Matheny argumentou que esse desconto é inadequado ao avaliar o valor da redução de risco existencial.[9]

Alguns economistas discutiram a importância dos riscos catastróficos globais, embora não existenciais. Martin Weitzman argumenta que a maioria dos danos econômicos esperados das mudanças climáticas pode vir da pequena chance de que o aquecimento exceda muito as expectativas de médio alcance, resultando em danos catastróficos.[22] Richard Posner argumentou que estamos fazendo muito pouco, em geral, sobre riscos pequenos e difíceis de estimar de catástrofes em larga escala.[23]

Inúmeros desvios cognitivos podem influenciar o julgamento das pessoas sobre a importância dos riscos existenciais, incluindo insensibilidade ao escopo, desconto hiperbólico, heurística de disponibilidade, falácia da conjunção, heurística de afetação e efeito de excesso de confiança.[24]

A insensibilidade do escopo influencia o quão ruim as pessoas consideram a extinção da raça humana. Por exemplo, quando as pessoas são motivadas a doar dinheiro para causas altruístas, a quantidade que estão dispostas a dar não aumenta linearmente com a magnitude da questão: as pessoas ficam tão preocupadas com cerca de 200.000 pássaros que ficam presos no petróleo quanto com 2.000.[25] Da mesma forma, as pessoas geralmente estão mais preocupadas com ameaças a indivíduos do que a grupos maiores.[24]

Existem razões econômicas que podem explicar por que tão pouco esforço está sendo gasto na redução de riscos existenciais. É um bem global; portanto, mesmo que uma nação grande o diminua, essa nação terá apenas uma pequena fração do benefício de fazê-lo. Além disso, a grande maioria dos benefícios pode ser desfrutada por gerações futuras muito distintas, e embora esses quatrilhões de pessoas futuras estariam, em teoria, talvez dispostos a pagar quantias massivas pela redução existencial de riscos, não existe mecanismo para essa transação.[5]

Fontes potenciais de risco

Algumas fontes de risco catastrófico são naturais, como impactos de meteoros ou supervulcões. Alguns deles causaram extinções em massa no passado. Por outro lado, alguns riscos são causados pelo homem, como aquecimento global,[26] degradação ambiental, pandemias projetadas e guerra nuclear.[27]

Antropogênico

O Projeto Cambridge da Universidade de Cambridge afirma que as "maiores ameaças" à espécie humana são criadas pelo homem; eles são inteligência artificial, aquecimento global, guerra nuclear e biotecnologia desonesta.[28] O Instituto Futuro da Humanidade também afirma que a extinção humana é mais provável de resultar de causas antropogênicas do que causas naturais.[5][29]

Inteligência artificial

Foi sugerido que o aprendizado de computadores que rapidamente se tornam superinteligentes pode executar ações imprevistas ou que os robôs superariam a humanidade (um cenário de singularidade tecnológica).[30] Devido à sua excepcional capacidade de programação e organização e à variedade de novas tecnologias que ele poderia desenvolver, é possível que a primeira superinteligência da Terra a surgir se torne rapidamente incomparável e sem rival: é concebível que seja capaz de produzir quase qualquer resultado possível e ser capaz de frustrar virtualmente qualquer tentativa que ameaçava impedi-lo de atingir seus objetivos.[31] Poderia eliminar, eliminando se escolhesse, qualquer outro intelecto rival desafiador; alternativamente, pode manipulá-los ou persuadi-los a mudar seu comportamento em relação aos seus próprios interesses, ou pode apenas obstruir suas tentativas de interferência.[31] No livro de Bostrom, Superintelligence: Paths, Dangers, Strategies, ele define isso como o problema de controle.[32] físico Stephen Hawking, Bill Gates, fundador da Microsoft, e Elon Musk, da SpaceX, ecoaram essas preocupações, com Hawking teorizando que essa IA poderia "significar o fim da raça humana".[33]

Em 2009, a Associação para o Avanço da Inteligência Artificial (AAAI) organizou uma conferência para discutir se computadores e robôs podem adquirir algum tipo de autonomia e quanto essas habilidades podem representar uma ameaça ou perigo. Eles observaram que alguns robôs adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência retratada na ficção científica provavelmente é improvável, mas que havia outros perigos e armadilhas em potencial.[34] Várias fontes de mídia e grupos científicos observaram tendências separadas em diferentes áreas, que juntas podem resultar em maior funcionalidade e autonomia robótica e que apresentam algumas preocupações inerentes.[35][36]

Uma pesquisa com especialistas em IA estimou que a chance de o aprendizado de máquina no nível humano ter um efeito de longo prazo "extremamente ruim (por exemplo, extinção humana)" sobre a humanidade é de 5%.[37] Uma pesquisa de 2008 do Instituto Futuro da Humanidade estimou uma probabilidade de 5% de extinção por superinteligência em 2100.[14] Eliezer Yudkowsky acredita que os riscos da inteligência artificial são mais difíceis de prever do que quaisquer outros riscos conhecidos devido ao viés do antropomorfismo . Como as pessoas baseiam seus julgamentos de inteligência artificial em suas próprias experiências, ele afirma que subestimam o poder potencial da IA.[38]

Referências

  1. «The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary» (PDF). Science. 327: 1214–1218. Bibcode:2010Sci...327.1214S. PMID 20203042. doi:10.1126/science.1177265 
  2. Bostrom, Nick (2008). Global Catastrophic Risks (PDF). Oxford University Press. [S.l.: s.n.] 
  3. a b Ripple WJ, Wolf C, Newsome TM, Galetti M, Alamgir M, Crist E, Mahmoud MI, Laurance WF. «World Scientists' Warning to Humanity: A Second Notice». BioScience. 67: 1026–1028. doi:10.1093/biosci/bix125 
  4. Bostrom. «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards». Journal of Evolution and Technology. 9 
  5. a b c d Bostrom (2013). «Existential Risk Prevention as Global Priority» (PDF). Global Policy. 4: 15–3. doi:10.1111/1758-5899.12002 – via Existential Risk 
  6. a b Bostrom (2009). «Astronomical Waste: The opportunity cost of delayed technological development». Utilitas. 15: 308–314. doi:10.1017/s0953820800004076 
  7. Posner, Richard A. (2006). Catastrophe : risk and response. Oxford University Press. Oxford: [s.n.] ISBN 978-0195306477 , Introduction, "What is Catastrophe?"
  8. a b "Observation Selection Effects and Global Catastrophic Risks", Milan Cirkovic, 2008
  9. a b Matheny. «Reducing the Risk of Human Extinction» (PDF). Risk Analysis. 27: 1335–1344. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x 
  10. «Earth in the cosmic shooting gallery» (PDF). The Observatory. 125: 319–322. 2005. Bibcode:2005Obs...125..319A 
  11. Ambrose 1998; Rampino & Ambrose 2000, pp. 71, 80.
  12. «Super eruptions as a threat to civilizations on Earth-like planets» (PDF). Icarus. 156: 562–569. 2002. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808 
  13. «Probabilities, methodologies and the evidence base in existential risk assessments» (PDF). Working Paper, Centre for the Study of Existential Risk 
  14. a b Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  15. Global Catastrophic Risks Survey, Technical Report, 2008, Future of Humanity Institute
  16. Meyer, Robinson. «Human Extinction Isn't That Unlikely». Emerson Collective 
  17. «Global Challenges Foundation website». globalchallenges.org 
  18. Manheim, David. «Questioning Estimates of Natural Pandemic Risk» 
  19. «Existential Risks: Exploring a Robust Risk Reduction Strategy» (PDF). Science and Engineering Ethics. 21: 541–54. PMID 24891130. doi:10.1007/s11948-014-9559-3 
  20. Parfit, Derek (1984). Reasons and Persons. Oxford University Press. [S.l.: s.n.] pp. 453–454 
  21. «Date set for desert Earth». BBC News Online 
  22. Weitzman. «On modeling and interpreting the economics of catastrophic climate change» (PDF). The Review of Economics and Statistics. 91: 1–19. doi:10.1162/rest.91.1.1 
  23. Posner, Richard (2004). Catastrophe: Risk and Response. Oxford University Press. [S.l.: s.n.] 
  24. a b «Cognitive Biases Potentially Affecting Judgment of Global Risks» (PDF). Global Catastrophic Risks: 91–119. Bibcode:2008gcr..book...86Y 
  25. Desvousges, W.H., Johnson, F.R., Dunford, R.W., Boyle, K.J., Hudson, S.P., and Wilson, N. 1993, Measuring natural resource damages with contingent valuation: tests of validity and reliability. In Hausman, J.A. (ed), Contingent Valuation:A Critical Assessment, pp. 91–159 (Amsterdam: North Holland).
  26. IPCC (11 November 2013): D. "Understanding the Climate System and its Recent Changes", in: Summary for Policymakers (finalized version) Arquivado em 2017-03-09 no Wayback Machine, in: IPCC AR5 WG1 2013, p. 13
  27. «Global Catastrophic Risks: a summary» 
  28. «'Terminator center' to open at Cambridge University». Fox News 
  29. «Frequently Asked Questions». Future of Humanity Institute  |obra= e |publicação= redundantes (ajuda)
  30. Bill Joy, Why the future doesn't need us. Wired magazine.
  31. a b Nick Bostrom 2002 "Ethical Issues in Advanced Artificial Intelligence"
  32. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. [S.l.: s.n.] 
  33. «Microsoft's Bill Gates insists AI is a threat». BBC News 
  34. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  35. Gaming the Robot Revolution: A military technology expert weighs in on Terminator: Salvation., By P. W. Singer, slate.com Thursday, May 21, 2009.
  36. robot page, engadget.com.
  37. «When Will AI Exceed Human Performance? Evidence from AI Experts». Journal of Artificial Intelligence Research. Bibcode:2017arXiv170508807G. arXiv:1705.08807Acessível livremente 
  38. Yudkowsky, Eliezer (2008). Artificial Intelligence as a Positive and Negative Factor in Global Risk. [S.l.: s.n.] Bibcode:2008gcr..book..303Y 

Ligações externas