Extinção humana

Origem: Wikipédia, a enciclopédia livre.
A guerra nuclear é uma causa frequentemente prevista da extinção da humanidade[1]

Extinção humana ou extinção da humanidade, também conhecida como onicídio,[2] é o fim hipotético da espécie humana devido a causas naturais, como declínio populacional devido à baixa fertilidade, impacto de asteroides ou vulcanismo em larga escala, ou causas antropogênicas (humanas). Para este último, alguns dos muitos possíveis contribuintes incluem mudanças climáticas, aniquilação nuclear global, guerra biológica e colapso ecológico. Outros cenários se concentram em tecnologias emergentes, como inteligência artificial avançada, biotecnologia ou nanobots auto-replicantes. O consenso dos cientistas é que há um risco relativamente baixo de extinção humana a curto prazo devido a causas naturais.[3] A probabilidade de extinção humana por meio de suas próprias atividades, no entanto, é uma área atual de pesquisa e debate.

História do pensamento[editar | editar código-fonte]

História inicial do pensamento sobre a extinção humana[editar | editar código-fonte]

Antes dos séculos XVIII e XIX, a possibilidade de que humanos ou outros organismos pudessem ser extintos era vista com ceticismo.[4] Contradizia o princípio da plenitude, uma doutrina de que todas as coisas possíveis existem.[4] O princípio remonta a Aristóteles e foi um importante princípio da teologia cristã.[5] Filósofos ocidentais antigos, como Platão, Aristóteles e Lucrécio, escreveram sobre o fim da humanidade apenas como parte de um ciclo de renovação. Filósofos posteriores como Al-Ghazali, Guilherme de Ockham e Gerolamo Cardano expandiram o estudo da lógica e da probabilidade e começaram a discutir mundos abstratos possíveis, incluindo um mundo sem humanos. A noção de que as espécies podem ser extintas ganhou aceitação científica durante o Iluminismo nos séculos XVII e XVIII e, em 1800, Georges Cuvier havia identificado 23 espécies pré-históricas extintas.[4] A doutrina foi gradualmente minada por evidências das ciências naturais, particularmente a descoberta de evidências fósseis de espécies que pareciam não existir mais e o desenvolvimento de teorias da evolução.[5] Em A Origem das Espécies, Darwin discutiu a extinção das espécies como um processo natural e componente central da seleção natural.[6] Notavelmente, Darwin era cético quanto à possibilidade de extinções repentinas, vendo isso como um processo gradual. Ele sustentou que os desaparecimentos abruptos de espécies do registro fóssil não eram evidência de extinções catastróficas, mas sim uma função de lacunas não reconhecidas no registro.[6]

À medida que a possibilidade de extinção se tornou mais amplamente estabelecida nas ciências, o mesmo aconteceu com a perspectiva de extinção humana.[4] No século XIX, a extinção humana tornou-se um tópico popular na ciência (por exemplo, An Essay on the Principle of Population, de Thomas Robert Malthus) e na ficção (por exemplo, The Last Man, de Mary Shelley). Em 1863, alguns anos depois de Charles Darwin publicar A Origem das Espécies, o geologista William King propôs que os neandertais eram uma espécie extinta do gênero Homo. Os autores e poetas românticos estavam particularmente interessados no tema.[4] Lord Byron escreveu sobre a extinção da vida na Terra em seu poema de 1816 "Darkness" e, em 1824, previu que a humanidade seria ameaçada pelo impacto de um cometa e empregaria um sistema de mísseis para se defender.[4] O romance de 1826 de Mary Shelley, The Last Man, se passa em um mundo onde a humanidade foi quase destruída por uma misteriosa praga. Na virada do século XX, o cosmismo russo, precursor do transumanismo moderno, defendia evitar a extinção da humanidade colonizando o espaço.[4]

Era atômica[editar | editar código-fonte]

Teste nuclear do Castelo Romeo no Atol de Bikini

A invenção da bomba atômica provocou uma onda de discussão sobre o risco de extinção humana entre cientistas, intelectuais e o público em geral.[4] Em um ensaio de 1945, Bertrand Russell escreveu que "a perspectiva para a raça humana é sombria além de todos os precedentes. A humanidade se depara com uma alternativa clara: ou todos pereceremos, ou teremos que adquirir um leve grau de bom senso."[7] Em 1950, Leo Szilard sugeriu que era tecnologicamente viável construir uma bomba de cobalto que poderia tornar o planeta inabitável. Uma pesquisa da Gallup de 1950 descobriu que 19% dos estadunidenses acreditavam que outra guerra mundial significaria "um fim para a humanidade".[8] Silent Spring, de Rachel Carson, de 1962, aumentou a conscientização sobre uma catástrofe ambiental. Em 1983, Brandon Carter propôs o argumento do Juízo Final, que usava a probabilidade bayesiana para prever o número total de humanos que existiriam.

A descoberta do "inverno nuclear" no início da década de 1980, um mecanismo específico pelo qual a guerra nuclear poderia resultar na extinção humana, novamente trouxe a questão à proeminência. Escrevendo sobre essas descobertas em 1983, Carl Sagan argumentou que medir a gravidade da extinção apenas em termos daqueles que morrem "esconde seu impacto total" e que a guerra nuclear "põe em perigo todos os nossos descendentes, enquanto houver humanos."[9]

Era moderna[editar | editar código-fonte]

O livro de 1996 de John Leslie, The End of The World, foi uma perspectiva acadêmica da ciência e ética da extinção humana. Nele, Leslie considerou uma série de ameaças à humanidade e o que elas têm em comum. Em 2003, o astrônomo britânico real Sir Martin Rees publicou Our Final Hour, no qual argumenta que os avanços em certas tecnologias criam novas ameaças para a sobrevivência da humanidade e que o século XXI pode ser um momento crítico na história quando o destino da humanidade é decidido.[10] Editado por Nick Bostrom e Milan M. Ćirković, Global Catastrophic Risks foi publicado em 2008, uma coleção de ensaios de 26 acadêmicos sobre vários riscos globais catastróficos e existenciais.[11] O livro de 2020 de Toby Ord, The Precipice: Existential Risk and the Future of Humanity, argumenta que prevenir riscos existenciais é uma das questões morais mais importantes do nosso tempo. O livro discute, quantifica e compara diferentes riscos existenciais, concluindo que os maiores riscos são apresentados por inteligência artificial e biotecnologia desalinhadas.[12]

Causas[editar | editar código-fonte]

As causas antropogênicas potenciais da extinção humana incluem a guerra termonuclear global, a implantação de uma arma biológica altamente eficaz, um colapso ecológico, uma inteligência artificial e/ou uma nanotecnologia descontroladas (como um cenário de gosma cinza), um acidente científico envolvendo um miniburaco negro, a superpopulação e o aumento do consumismo, o declínio populacional pela escolha de ter menos filhos, o deslocamento de humanos naturalmente evoluídos por uma nova espécie produzida por engenharia genética ou aumento tecnológico. Os riscos de extinção natural e externa incluem pandemia de alta taxa de mortalidade, erupção supervulcânica, impacto de asteroide, supernova próxima ou explosões de raios gama, erupção solar extrema ou invasão alienígena.

Sem a intervenção de forças inesperadas, espera-se que a evolução estelar do Sol torne a Terra inabitável e depois a destrua. Dependendo de seu destino final, todo o universo pode eventualmente se tornar inabitável.

Probabilidade[editar | editar código-fonte]

Natural vs. antropogênico[editar | editar código-fonte]

Os especialistas geralmente concordam que os riscos existenciais antropogênicos são (muito) mais prováveis do que os riscos naturais.[10][13][14][15] Uma diferença fundamental entre esses tipos de risco é que a evidência empírica pode estabelecer um limite superior no nível de risco natural.[14] A humanidade existe há pelo menos 200 mil anos, durante os quais esteve sujeita a um nível quase constante de risco natural. Se o risco natural fosse alto, seria altamente improvável que a humanidade tivesse sobrevivido por tanto tempo. Com base na formalização desse argumento, os pesquisadores concluíram que podemos ter certeza de que o risco natural é inferior a 1 em 14 mil (e provavelmente "menos de um em 87 mil") por ano.[14]

Outro método empírico para estudar a probabilidade de certos riscos naturais é investigar o registro geológico. Por exemplo, um evento de impacto de cometa ou asteroide em escala suficiente para causar um inverno de impacto que causaria a extinção humana antes do ano 2100 foi estimado em um em um milhão.[16][17] Além disso, grandes erupções de supervulcões podem causar um inverno vulcânico que pode colocar em risco a sobrevivência da humanidade.[18] O registro geológico sugere que as erupções supervulcânicas ocorrem em média uma vez a cada 50 mil anos, embora a maioria dessas erupções não atinja a escala necessária para causar a extinção humana.[18] Notoriamente, o supervulcão Toba pode ter quase exterminado a humanidade na época de sua última erupção (embora isso seja controverso).[18][19]

Como o risco antropogênico é um fenômeno relativamente recente, o histórico de sobrevivência da humanidade não pode fornecer garantias semelhantes.[14] A humanidade sobreviveu apenas 75 anos desde a criação das armas nucleares e, para tecnologias futuras, não há nenhum histórico. Isso levou pensadores como Carl Sagan a concluir que a humanidade está atualmente em um "tempo de perigos"[20] - um período excepcionalmente perigoso na história humana, onde está sujeito a níveis de risco sem precedentes, desde quando os humanos começaram a representar riscos a si mesmos por meio de suas ações.[21]

Estimativas de risco[editar | editar código-fonte]

Dadas as limitações da observação e modelagem comuns, a elicitação de especialistas é frequentemente usada para obter estimativas de probabilidade.[22] Em 2008, uma pesquisa informal de especialistas em uma conferência organizada pelo Future of Humanity Institute estimou um risco de 19% de extinção humana até o ano 2100, mas, dadas as limitações da pesquisa, esses resultados devem ser considerados "com um grão de sal".[13]

Risco Probabilidade estimada
para a extinção humana
antes de 2100
Probabilidade geral
19%
Armas de nanotecnologia molecular
5%
Inteligência artificial superinteligente
5%
Todas as guerras (incluindo guerras civis)
4%
Guerra biológica
2%
Guerra nuclear
1%
Acidente de nanotecnologia
0,5%
Pandemia
0,05%
Terrorismo nuclear
0,03%

Fonte: Future of Humanity Institute, 2008.[13]

Houve uma série de outras estimativas de risco existencial, risco de extinção ou um colapso global da civilização:

  • A humanidade tem uma probabilidade de 95% de ser extinta em 7,8 milhões de anos, de acordo com a formulação de J. Richard Gott do controverso argumento do Juízo Final, que argumenta que provavelmente já vivemos metade da duração da história humana.[23]
  • Em 1996, John Leslie estimou um risco de 30% nos próximos cinco séculos (equivalente a cerca de 9% por século, em média).[24]
  • Em 2003, Martin Rees estimou uma chance de 50% de colapso da civilização no século XXI.[25]
  • O relatório anual de 2016 da Global Challenges Foundation estima uma probabilidade anual de extinção humana de pelo menos 0,05% ao ano.[26]
  • Uma pesquisa de 2016 com especialistas em IA encontrou uma estimativa média de 5% de que a IA em nível humano causaria um resultado "extremamente ruim (por exemplo, extinção humana)".[27]
  • Em 2020, Toby Ord estima o risco existencial no próximo século em "1 em 6" em seu livro The Precipice: Existential Risk and the Future of Humanity.[28]
  • Os usuários do Metaculus atualmente estimam uma probabilidade de 3% da humanidade ser extinta antes de 2100.[29]
  • Em uma entrevista de 2010 ao The Australian, o cientista australiano Frank Fenner previu a extinção da raça humana dentro de um século, principalmente como resultado da superpopulação humana, degradação ambiental e mudanças climáticas.[30]
  • De acordo com um estudo de 2020 publicado na Scientific Reports, se o desmatamento e o consumo de recursos continuarem nas taxas atuais, eles podem culminar em um “colapso catastrófico da população humana” e possivelmente em “um colapso irreversível de nossa civilização” nos próximos 20 a 40 anos. De acordo com o cenário mais otimista fornecido pelo estudo, as chances de sobrevivência da civilização humana são menores que 10%. Para evitar esse colapso, diz o estudo, a humanidade deve passar de uma civilização dominada pela economia para uma "sociedade cultural" que "privilegie o interesse do ecossistema acima do interesse individual de seus componentes, mas eventualmente de acordo com o interesse geral da comunidade".[31][32]
  • Nick Bostrom, um filósofo da Universidade de Oxford conhecido por seu trabalho sobre risco existencial, argumenta que seria "errado"[33] supor que a probabilidade de extinção a curto prazo é inferior a 25% e que será "uma tarefa difícil" para a raça humana "ter nossas precauções suficientemente corretas na primeira vez", dado que um risco existencial não oferece oportunidade de aprender com o fracasso.[3][16]
  • O filósofo John Leslie atribui uma chance de 70% da humanidade sobreviver nos próximos cinco séculos, com base em parte no controverso argumento filosófico do dia do juízo final que Leslie defende. O argumento de Leslie é um tanto frequentista, baseado na observação de que a extinção humana nunca foi observada, mas requer argumentos antrópicos subjetivos.[34] Leslie também discute o viés de sobrevivência antrópica (que ele chama de efeito de "seleção observacional" na página 139) e afirma que a certeza a priori de observar um "passado não desastroso" pode tornar difícil argumentar que devemos estar seguros porque nada terrível aconteceu ainda. Ele cita a formulação de Holger Bech Nielsen: "Nós nem sabemos se deve existir algum decaimento extremamente perigoso de digamos o próton que causou a erradicação da Terra, porque se isso acontecer não estaríamos mais lá para observá-lo e se isso não acontece, não há nada para observar."[35]

Riscos individuais vs. espécies[editar | editar código-fonte]

Embora os riscos existenciais sejam menos gerenciáveis pelos indivíduos do que – por exemplo – riscos à saúde, de acordo com Ken Olum, Joshua Knobe e Alexander Vilenkin, a possibilidade de extinção humana tem implicações práticas. Por exemplo, se o argumento do Juízo Final "universal" for aceito, ele altera a fonte mais provável de desastres e, portanto, o meio mais eficiente de preveni-los. Eles escrevem: "... você deveria estar mais preocupado com o fato de um grande número de asteróides ainda não ter sido detectado do que com a órbita específica de cada um. Você não deve se preocupar especialmente com a chance de que alguma estrela próxima específica se torne uma supernova, mas mais com a chance de que as supernovas sejam mais mortais para a vida próxima do que acreditamos."[36]

Dificuldade[editar | editar código-fonte]

Alguns estudiosos argumentam que certos cenários, como a guerra termonuclear global, teriam dificuldade em erradicar todos os últimos assentamentos na Terra. O físico Willard Wells aponta que qualquer cenário crível de extinção teria que atingir um conjunto diversificado de áreas, incluindo os metrôs subterrâneos das principais cidades, as montanhas do Tibete, as ilhas mais remotas do Pacífico Sul e até a Estação McMurdo na Antártida. que tem planos de contingência e suprimentos para longo isolamento.[37] Além disso, existem bunkers elaborados para os líderes do governo ocuparem durante uma guerra nuclear.[16] A existência de submarinos nucleares, que podem permanecer a centenas de metros de profundidade no oceano por anos, também deve ser considerada. Qualquer número de eventos pode levar a uma perda maciça de vidas humanas, mas se os últimos humanos mais resilientes provavelmente também morrerão, então esse cenário de extinção humana em particular pode não parecer crível.[38]

Inevitabilidade[editar | editar código-fonte]

A longo prazo, a extinção humana pode ser inevitável, dependendo da estrutura em grande escala do universo, que não é completamente compreendida. Por exemplo, é improvável que a humanidade sobreviva à morte por calor do universo ou ao Big Crunch, a menos que novas descobertas na física os excluam como o destino final do universo ou iluminem alguma maneira de evitá-los.

Ética[editar | editar código-fonte]

Valor da vida humana[editar | editar código-fonte]

Cartaz contra o onicídio, em Extinction Rebellion (2018).
Movimento Voluntário de Extinção Humana

"Riscos existenciais" são riscos que ameaçam todo o futuro da humanidade, seja causando a extinção humana ou prejudicando permanentemente o progresso humano.[3] Vários estudiosos argumentaram com base no tamanho da "dotação cósmica" que, devido ao número inconcebivelmente grande de potenciais vidas futuras que estão em jogo, mesmo pequenas reduções de risco existencial têm grande valor.

Em uma das primeiras discussões sobre ética da extinção humana, Derek Parfit oferece o seguinte experimento mental:[39]

Acredito que se destruirmos a humanidade, como podemos agora, esse resultado será muito pior do que a maioria das pessoas pensa. Compare três resultados:

(1) Paz.
(2) Uma guerra nuclear que mata 99% da população mundial existente.
(3) Uma guerra nuclear que mata 100%.

(2) seria pior que (1) e (3) seria pior que (2). Qual é a maior dessas duas diferenças? A maioria das pessoas acredita que a maior diferença está entre (1) e (2). Acredito que a diferença entre (2) e (3) seja muito maior.

— Derek Parfit

A escala do que é perdido em uma catástrofe existencial é determinada pelo potencial de longo prazo da humanidade – o que a humanidade poderia esperar alcançar se sobrevivesse. De uma perspectiva utilitarista, o valor de proteger a humanidade é o produto de sua duração (quanto tempo a humanidade sobrevive), seu tamanho (quantos humanos existem ao longo do tempo) e sua qualidade (em média, quão boa é a vida para as pessoas futuras).:273[40] Em média, as espécies sobrevivem por cerca de um milhão de anos antes de serem extintas. Parfit aponta que a Terra permanecerá habitável por cerca de um bilhão de anos.[39] E esses podem ser os limites mais baixos do nosso potencial: se a humanidade for capaz de se expandir além da Terra, poderá aumentar muito a população humana e sobreviver por trilhões de anos.[41]:21 O tamanho do potencial que seria perdido caso a humanidade fosse extinta, é muito grande. Portanto, reduzir o risco existencial, mesmo que pequeno, teria um valor moral muito significativo.[3][42]

Carl Sagan escreveu em 1983: "Se formos obrigados a calibrar a extinção em termos numéricos, eu certamente incluirei o número de pessoas nas gerações futuras que não nasceriam. ... (Por um cálculo), as apostas são um milhão de vezes maiores para a extinção do que para as guerras nucleares mais modestas que matam "apenas" centenas de milhões de pessoas. Existem muitas outras medidas possíveis da perda potencial — incluindo cultura e ciência, a história evolutiva do planeta e o significado da vida de todos os nossos ancestrais que contribuíram para o futuro de seus descendentes. A extinção é a ruína do empreendimento humano."[43]

O filósofo Robert Adams, em 1989, rejeita as visões "impessoais" de Parfit, mas fala em vez de um imperativo moral de lealdade e compromisso com "o futuro da humanidade como um vasto projeto. . . A aspiração por uma sociedade melhor — mais justa, mais recompensadora e mais pacífica... nosso interesse pela vida de nossos filhos e netos e a esperança de que eles possam, por sua vez, ter a vida de seus filhos e netos como projetos."[44]

O filósofo Nick Bostrom argumenta em 2013 que argumentos satisfacionistas, democráticos, de custódia e intuicionistas convergem para a visão de senso comum de que prevenir o risco existencial é uma alta prioridade moral, mesmo que o "grau de maldade" exato da extinção humana varie entre essas filosofias.[45]

Parfit argumenta que o tamanho da "dotação cósmica" pode ser calculado a partir do seguinte argumento: se a Terra permanecer habitável por mais um bilhão de anos e puder sustentar de forma uma população de mais de um bilhão de humanos, então há um potencial para 1016 (ou 10.000.000.000.000.000) vidas humanas de duração normal.[46] Bostrom vai mais longe, afirmando que se o universo está vazio, então o universo acessível pode suportar pelo menos 1034 anos de vida humana biológica; e, se alguns humanos fossem carregados em computadores, poderiam até suportar o equivalente a 1054 anos de vida humana cibernética.[3]

Alguns economistas e filósofos defenderam pontos de vista, incluindo descontos exponenciais e visões de ética populacional que afetam as pessoas, sobre as quais as pessoas futuras não importam (ou importam muito menos), moralmente falando.[47] Embora essas visões sejam controversas,[16][48][49] até eles concordariam que uma catástrofe existencial estaria entre as piores coisas imagináveis. Abreviaria a vida dos oito bilhões de pessoas atualmente existentes, destruindo tudo o que torna suas vidas valiosas e, provavelmente, submetendo muitas delas a um profundo sofrimento. Assim, mesmo deixando de lado o valor das gerações futuras, pode haver fortes razões para reduzir o risco existencial, fundamentado na preocupação com as pessoas existentes.[50]

Além do utilitarismo, outras perspectivas morais dão suporte à importância de reduzir o risco existencial. Uma catástrofe existencial destruiria mais do que apenas a humanidade — destruiria todos os artefatos culturais, idiomas e tradições, além de muitas das coisas que valorizamos.[51] Portanto, pontos de vista morais sobre os quais temos deveres de proteger e valorizar coisas de valor veriam isso como uma enorme perda que deve ser evitada. Pode-se também considerar razões fundamentadas em deveres para com as gerações passadas. Por exemplo, Edmund Burke escreve sobre uma "parceria ... entre os que estão vivos, os que estão mortos e os que vão nascer".[52] Se levarmos a sério a dívida que a humanidade tem para com as gerações passadas, Ord argumenta que a melhor maneira de pagá-la pode ser "pagar adiante" e garantir que a herança da humanidade seja passada para as gerações futuras.[53]:49–51

Há vários economistas que discutiram a importância dos riscos catastróficos globais. Por exemplo, Martin Weitzman argumenta que a maior parte dos danos econômicos esperados da mudança climática pode vir da pequena chance de que o aquecimento exceda em muito as expectativas de médio alcance, resultando em danos catastróficos.[54] Richard Posner argumentou que a humanidade está fazendo muito pouco, em geral, sobre riscos pequenos e difíceis de estimar de catástrofes em grande escala.[55]

Extinção voluntária[editar | editar código-fonte]

Alguns filósofos adotam a posição antinatalista de que a extinção humana não seria uma coisa ruim, mas uma coisa boa. David Benatar argumenta que vir a existir é sempre um dano sério e, portanto, é melhor que as pessoas não venham a existir no futuro.[56] Além disso, David Benatar, o ativista dos direitos dos animais Steven Best e o anarquista Todd May, postulam que a extinção humana seria algo positivo para os outros organismos do planeta e para o próprio planeta, citando, por exemplo, a natureza omnicida da civilização humana.[57][58][59] A visão ambiental a favor da extinção humana é compartilhada pelos membros do Movimento Voluntário de Extinção Humana que pedem que se evite a reprodução e permita que a espécie humana se extinga pacificamente.[60]

Na ficção[editar | editar código-fonte]

Le dernier homme (O Último Homem), de Jean-Baptiste Primo de Grainville, de 1805, que retrata a extinção humana devido à infertilidade, é considerado o primeiro romance apocalíptico moderno e creditado com o lançamento do gênero.[61] Outros trabalhos iniciais notáveis incluem The Last Man, de Mary Shelley, de 1826, retratando a extinção humana causada por uma pandemia, e Star Maker, de Olaf Stapledon, de 1937, "um estudo comparativo do omnicídio".[4]

Alguns trabalhos de ciência popular do século XXI, como The World Without Us, de Alan Weisman, e o especial de TV Life After People, representam um experimento mental: o que aconteceria com o resto do planeta se os humanos desaparecessem de repente?[62][63] Uma ameaça de extinção humana, como por meio de uma singularidade tecnológica (também chamada de explosão de inteligência), impulsiona o enredo de inúmeras histórias de ficção científica; um exemplo inicial influente é a adaptação cinematográfica de 1951 de When Worlds Collide.[64] Normalmente a ameaça de extinção é evitada por pouco, mas existem algumas exceções, como R.U.R. e A.I. de Steven Spielberg.[65]

Ver também[editar | editar código-fonte]

Referências

  1. Di Mardi (15 de outubro de 2020). «The grim fate that could be 'worse than extinction'». BBC News. Consultado em 11 de novembro de 2020 
  2. «Onicídio». Michaelis On-Line. Consultado em 17 de abril de 2022 
  3. a b c d e Bostrom 2013.
  4. a b c d e f g h i Moynihan, Thomas (23 de setembro de 2020). «How Humanity Came To Contemplate Its Possible Extinction: A Timeline». The MIT Press Reader. Consultado em 11 de outubro de 2020 
    Ver também:
  5. a b Darwin, Charles; Costa, James T. (2009). The Annotated Origin. [S.l.]: Harvard University Press. ISBN 978-0674032811 
  6. a b Raup, David M. (1995). «The Role of Extinction in Evolution». In: Fitch; Ayala. Tempo And Mode in Evolution: Genetics And Paleontology 50 Years After Simpson. [S.l.]: National Academies Press (US) 
  7. Russell, Bertrand (1945). «The Bomb and Civilization». Cópia arquivada em 7 de agosto de 2020 
  8. Erskine, Hazel Gaudet (1963). «The Polls: Atomic Weapons and Nuclear Energy». The Public Opinion Quarterly. 27 (2): 155–190. JSTOR 2746913. doi:10.1086/267159 
  9. Sagan, Carl (28 de janeiro de 2009). «Nuclear War and Climatic Catastrophe: Some Policy Implications». JSTOR 20041818. doi:10.2307/20041818. Consultado em 11 de agosto de 2021 
  10. a b Reese, Martin (2003). Our Final Hour: A Scientist's Warning: How Terror, Error, and Environmental Disaster Threaten Humankind's Future In This Century - On Earth and Beyond. [S.l.]: Basic Books. ISBN 0-465-06863-4 
  11. Bostrom; Ćirković, eds. (2008). Global catastrophic risks. [S.l.]: Oxford University Press. ISBN 978-0199606504 
  12. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916. This is an equivalent, though crisper statement of Nick Bostrom's definition: "An existential risk is one that threatens the premature extinction of Earth-originating intelligent life or the permanent and drastic destruction of its potential for desirable future development." Source: Bostrom, Nick (2013). "Existential Risk Prevention as Global Priority". Global Policy. 4:15-31. 
  13. a b c Bostrom, Nick; Sandberg, Anders (2008). «Global Catastrophic Risks Survey» (PDF). Future of Humanity Institute. FHI Technical Report #2008-1 
  14. a b c d Snyder-Beattie, Andrew E.; Ord, Toby; Bonsall, Michael B. (30 de julho de 2019). «An upper bound for the background rate of human extinction». Scientific Reports. 9 (1). 11054 páginas. Bibcode:2019NatSR...911054S. ISSN 2045-2322. PMC 6667434Acessível livremente. PMID 31363134. doi:10.1038/s41598-019-47540-7 
  15. «Frequently Asked Questions». Existential Risk. Future of Humanity Institute. Consultado em 26 de julho de 2013 
  16. a b c d Matheny, Jason Gaverick (2007). «Reducing the Risk of Human Extinction» (PDF). Risk Analysis. 27 (5): 1335–1344. PMID 18076500. doi:10.1111/j.1539-6924.2007.00960.x 
  17. Asher, D.J.; Bailey, M.E.; Emel'yanenko, V.; Napier, W.M. (2005). «Earth in the cosmic shooting gallery» (PDF). The Observatory. 125: 319–322. Bibcode:2005Obs...125..319A 
  18. a b c Rampino, M.R.; Ambrose, S.H. (2002). «Super eruptions as a threat to civilizations on Earth-like planets» (PDF). Icarus. 156 (2): 562–569. Bibcode:2002Icar..156..562R. doi:10.1006/icar.2001.6808 
  19. Yost, Chad L.; Jackson, Lily J.; Stone, Jeffery R.; Cohen, Andrew S. (1 de março de 2018). «Subdecadal phytolith and charcoal records from Lake Malawi, East Africa imply minimal effects on human evolution from the ∼74 ka Toba supereruption». Journal of Human Evolution. 116: 75–94. ISSN 0047-2484. PMID 29477183. doi:10.1016/j.jhevol.2017.11.005 
  20. Sagan, Carl (1994). Pale Blue Dot. [S.l.]: Random House. pp. 305–6. ISBN 0-679-43841-6. Some planetary civilizations see their way through, place limits on what may and what must not be done, and safely pass through the time of perils. Others are not so lucky or so prudent, perish. 
  21. Parfit, Derek (2011). On What Matters Vol. 2. [S.l.]: Oxford University Press. ISBN 9780199681044 
  22. Rowe, Thomas; Beard, Simon (2018). «Probabilities, methodologies and the evidence base in existential risk assessments» (PDF). Working Paper, Centre for the Study of Existential Risk. Consultado em 26 de agosto de 2018 
  23. J. Richard Gott, III (1993). «Implications of the Copernican principle for our future prospects». Nature. 363 (6427): 315–319. Bibcode:1993Natur.363..315G. doi:10.1038/363315a0 
  24. Leslie 1996, p. 146.
  25. Rees, Martin (2004) [2003]. Our Final Century. [S.l.]: Arrow Books 
  26. Meyer, Robinson (29 de abril de 2016). «Human Extinction Isn't That Unlikely». The Atlantic. Boston, Massachusetts: Emerson Collective. Consultado em 30 de abril de 2016 
  27. Grace, Katja; Salvatier, John (3 de maio de 2018). «When Will AI Exceed Human Performance? Evidence from AI Experts». arXiv:1705.08807Acessível livremente [cs.AI] 
  28. Purtill, Corinne. «How Close Is Humanity to the Edge?». The New Yorker 
  29. «Will humans go extinct by 2100?». Metaculus. 12 de novembro de 2017. Consultado em 12 de agosto de 2021 
  30. Edwards, Lin (23 de junho de 2010). «Humans will be extinct in 100 years says eminent scientist». Phys.org. Consultado em 10 de janeiro de 2021 
  31. Nafeez, Ahmed. «Theoretical Physicists Say 90% Chance of Societal Collapse Within Several Decades». Vice. Consultado em 2 de agosto de 2021 
  32. Bologna, M.; Aquino, G. (2020). «Deforestation and world population sustainability: a quantitative analysis». Scientific Reports. 10 (7631): 7631. Bibcode:2020NatSR..10.7631B. PMC 7203172Acessível livremente. PMID 32376879. arXiv:2006.12202Acessível livremente. doi:10.1038/s41598-020-63657-6 
  33. Bostrom, Nick (2002), «Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards», Journal of Evolution and Technology, 9, My subjective opinion is that setting this probability lower than 25% would be misguided, and the best estimate may be considerably higher. 
  34. Whitmire, Daniel P. (3 de agosto de 2017). «Implication of our technological species being first and early». International Journal of Astrobiology. 18 (2): 183–188. doi:10.1017/S1473550417000271Acessível livremente 
  35. Leslie 1996, p. 139.
  36. "Practical application" page 39 of the Princeton University paper: Philosophical Implications of Inflationary Cosmology Arquivado em 2005-05-12 no Wayback Machine
  37. Wells, Willard. (2009). Apocalypse when?. [S.l.]: Praxis. ISBN 978-0387098364 
  38. Tonn, Bruce; MacGregor, Donald (2009). «A singular chain of events». Futures. 41 (10): 706–714. SSRN 1775342Acessível livremente 
  39. a b Parfit, Derek (1984). Reasons and Persons. [S.l.]: Oxford University Press. pp. 453–454 
  40. MacAskill, William; Yetter Chappell, Richard (2021). «Population Ethics | Practical Implications of Population Ethical Theories». Introduction to Utilitarianism. Consultado em 12 de agosto de 2021 
  41. Bostrom, Nick (2009). «Astronomical Waste: The opportunity cost of delayed technological development». Utilitas. 15 (3): 308–314. CiteSeerX 10.1.1.429.2849Acessível livremente. doi:10.1017/s0953820800004076 
  42. Todd, Benjamin (2017). «The case for reducing existential risks». 80,000 Hours. Consultado em 8 de janeiro de 2020 
  43. Sagan, Carl (1983). «Nuclear war and climatic catastrophe: Some policy implications». Foreign Affairs. 62 (2): 257–292. JSTOR 20041818. doi:10.2307/20041818 
  44. Adams, Robert Merrihew (Outubro de 1989). «Should Ethics be More Impersonal? a Critical Notice of Derek Parfit, Reasons and Persons». The Philosophical Review. 98 (4): 439–484. JSTOR 2185115. doi:10.2307/2185115 
  45. Bostrom 2013, pp. 23–24.
  46. Parfit, D. (1984) Reasons and Persons. Oxford: Clarendon Press. pp. 453–454
  47. Narveson, Jan (1973). «Moral Problems of Population». The Monist. 57 (1): 62–86. PMID 11661014. doi:10.5840/monist197357134 
  48. Greaves, Hilary (2017). «Discounting for Public Policy: A Survey». Economics & Philosophy. 33 (3): 391–439. ISSN 0266-2671. doi:10.1017/S0266267117000062 
  49. Greaves, Hilary (2017). «Population axiology». Philosophy Compass. 12 (11): e12442. ISSN 1747-9991. doi:10.1111/phc3.12442 
  50. Lewis, Gregory (23 de maio de 2018). «The person-affecting value of existential risk reduction». www.gregoryjlewis.com. Consultado em 7 de agosto de 2020 
  51. Sagan, Carl. «Nuclear War and Climatic Catastrophe: Some Policy Implications». Foreign Affairs. Council on Foreign Relations. JSTOR 20041818. doi:10.2307/20041818 
  52. Burke, Edmund (1999) [1790]. «Reflections on the Revolution in France». In: Canavan. Select Works of Edmund Burke Volume 2. [S.l.]: Liberty Fund 
  53. Ord, Toby (2020). The Precipice: Existential Risk and the Future of Humanity. New York: Hachette. ISBN 9780316484916 
  54. Weitzman, Martin (2009). «On modeling and interpreting the economics of catastrophic climate change» (PDF). The Review of Economics and Statistics. 91 (1): 1–19. doi:10.1162/rest.91.1.1 
  55. Posner, Richard (2004). Catastrophe: Risk and Response. [S.l.]: Oxford University Press 
  56. Benatar, David (2008). Better Never to Have Been: The Harm of Coming into Existence. [S.l.]: Oxford University Press. ISBN 978-0199549269. Being brought into existence is not a benefit but always a harm. 
  57. Benatar, David (2008). Better Never to Have Been: The Harm of Coming into Existence. [S.l.]: Oxford University Press. ISBN 978-0199549269. Although there are many non-human species - especially carnivores - that also cause a lot of suffering, humans have the unfortunate distinction of being the most destructive and harmful species on earth. The amount of suffering in the world could be radically reduced if there were no more humans. 
  58. Best, Steven (2014). The Politics of Total Liberation: Revolution for the 21st Century. [S.l.]: Palgrave Macmillan. ISBN 978-1137471116. But considered from the standpoint of animals and the earth, the demise of humanity would be the best imaginable event possible, and the sooner the better. The extinction of Homo sapiens would remove the malignancy ravaging the planet, destroy a parasite consuming its host, shut down the killing machines, and allow the earth to regenerate while permitting new species to evolve. 
  59. May, Todd (17 de dezembro de 2018). «Would Human Extinction Be a Tragedy?». The New York Times. Human beings are destroying large parts of the inhabitable earth and causing unimaginable suffering to many of the animals that inhabit it. This is happening through at least three means. First, human contribution to climate change is devastating ecosystems . . . Second, the increasing human population is encroaching on ecosystems that would otherwise be intact. Third, factory farming fosters the creation of millions upon millions of animals for whom it offers nothing but suffering and misery before slaughtering them in often barbaric ways. There is no reason to think that those practices are going to diminish any time soon. Quite the opposite. 
  60. MacCormack, Patricia (2020). The Ahuman Manifesto: Activism for the End of the Anthropocene. [S.l.]: Bloomsbury Academic. ISBN 978-1350081093 
  61. Wagar, W. Warren (2003). «Review of The Last Man, Jean-Baptiste François Xavier Cousin de Grainville». Utopian Studies. 14 (1): 178–180. ISSN 1045-991X. JSTOR 20718566 
  62. «He imagines a world without people. But why?». The Boston Globe. 18 de agosto de 2007. Consultado em 20 de julho de 2016 
  63. Tucker, Neely (8 de março de 2008). «Depopulation Boom». The Washington Post. Consultado em 20 de julho de 2016 
  64. Barcella, Laura (2012). The end: 50 apocalyptic visions from pop culture that you should know about -- before it's too late. San Francisco, CA: Zest Books. ISBN 978-0982732250 
  65. Dinello, Daniel (2005). Technophobia!: science fiction visions of posthuman technology 1st ed. Austin: University of Texas press. ISBN 978-0-292-70986-7 

Bibliografia[editar | editar código-fonte]