Мы используем файлы cookie.
Продолжая использовать сайт, вы даете свое согласие на работу с этими файлами.

Risco catastrófico global

Подписчиков: 0, рейтинг: 0
Impressão artística de um grande impacto de asteroide. Um asteroide com força de impacto de um bilhão de bombas atômicas pode ter causado a extinção dos dinossauros.

Um risco catastrófico global é um evento futuro hipotético que pode danificar o bem-estar humano em escala global, inclusive prejudicando ou destruindo a civilização moderna. Um evento que poderia causar a extinção humana ou restringir permanentemente e drasticamente o potencial da humanidade é conhecido como um risco existencial.

Os possíveis riscos catastróficos globais incluem riscos antropogênicos, causados por seres humanos (tecnologia, governança, mudanças climáticas) e riscos não antropogênicos ou externos. Exemplos de riscos tecnológicos são inteligência artificial hostil e biotecnologia ou nanotecnologia destrutiva. Uma governança global insuficiente ou maligna cria riscos no domínio social e político, como uma guerra global, incluindo holocausto nuclear, bioterrorismo usando organismos geneticamente modificados, ciberterrorismo destruindo infraestruturas críticas como a rede elétrica; ou a falha em gerenciar uma pandemia natural. Problemas e riscos no domínio da governança do sistema terrestre incluem aquecimento global, degradação ambiental, incluindo extinção de espécies, fome como resultado de distribuição não equitativa de recursos, superpopulação humana, falhas de safra e agricultura não sustentável.

Exemplos de riscos não antropogênicos são um evento de impacto de asteroide, uma erupção supervulcânica, uma explosão letal de raios gama, uma tempestade geomagnética destruindo equipamentos eletrônicos, mudanças climáticas naturais a longo prazo, vida extraterrestre hostil ou o previsível Sol se transformando em um gigante vermelho estrela engolindo a terra.

Classificações

Grade de escopo/intensidade do artigo de Bostrom "Prevenção de riscos existenciais como prioridade global"

Catastrófico global vs. existencial

Um "risco catastrófico global" é qualquer risco que tenha pelo menos um alcance "global" e que não seja subjetivamente "imperceptível" em intensidade. Aqueles que são pelo menos "transgeracionais" (afetando todas as gerações futuras) em escopo e "terminais" em intensidade são classificados como riscos existenciais. Embora um risco catastrófico global possa matar a grande maioria da vida na Terra, a humanidade ainda pode se recuperar potencialmente. Um risco existencial, por outro lado, é aquele que destrói a humanidade (e, presumivelmente, todas, exceto as espécies mais rudimentares de formas de vida não-humanas e/ou plantas), totalmente ou pelo menos impede qualquer chance de recuperação da civilização.

Da mesma forma, em Catastrophe: Risk and Response, Richard Posner destaca e agrupa eventos que provocam "derrocada total ou ruína" em escala global, em vez de "local ou regional". Posner destaca esses eventos como dignos de atenção especial por razões de custo-benefício, porque eles poderiam comprometer direta ou indiretamente a sobrevivência da raça humana como um todo. Os eventos de Posner incluem impactos de meteoros, aquecimento global descontrolado, gosma cinzenta, bioterrorismo e acidentes com aceleradores de partículas.

Os pesquisadores têm dificuldade em estudar diretamente perto da extinção humana, uma vez que a humanidade nunca foi destruída antes. Embora isso não signifique que não será no futuro, dificulta a modelagem de riscos existenciais, devido em parte ao viés de sobrevivência. No entanto, civilizações desapareceram com bastante frequência na história humana.

Probabilidade

Alguns riscos são devidos a fenômenos que ocorreram no passado da Terra e deixaram um registro geológico. Juntamente com as observações contemporâneas, é possível fazer estimativas informadas da probabilidade de ocorrência desses eventos no futuro. Por exemplo, um evento de impacto de cometa ou asteroide no nível de extinção antes do ano 2100 foi estimado em um em um milhão.Supervulcões são outro exemplo. Existem vários supervulcões conhecidos, incluindo o Monte Toba, que alguns dizem quase exterminou a humanidade no momento de sua última erupção. Os registros geológicos sugerem que esse supervulcão em particular reaparece a cada 50.000 anos.

Sem o benefício de registros geológicos e observação direta, o perigo relativo representado por outras ameaças é muito mais difícil de calcular. Além disso, uma coisa é estimar a probabilidade de um evento ocorrer, outra coisa é avaliar a probabilidade de um evento causar extinção se ocorrer, e o mais difícil de tudo, o risco registrado pelos efeitos sinérgicos de vários eventos. simultaneamente.[carece de fontes?]

Dadas as limitações do cálculo e modelagem comuns, a elicitação de especialistas é frequentemente usada para obter estimativas de probabilidade. Em 2008, uma pesquisa informal de especialistas sobre diferentes riscos catastróficos globais na Conferência Global de Riscos Catastróficos da Universidade de Oxford sugeriu uma chance de 19% de extinção humana até o ano 2100. O relatório da conferência adverte que os resultados devem ser tomados "com um grão de sal", os resultados não pretendiam capturar todos os grandes riscos e não incluíam coisas como as mudanças climáticas, e provavelmente refletem muitos preconceitos cognitivos dos participantes da conferência.

Risco Probabilidade estimada

para extinção humana

antes de 2100

Probabilidade geral
19%
Armas de nanotecnologia molecular
5%
IA superinteligente
5%
Todas as guerras

(incluindo guerras civis)

4%
Pandemia projetada
2%
Guerra nuclear
1%
Acidente de nanotecnologia
0.5%
Pandemia natural
0.05%
Terrorismo nuclear
0.03%

Origem da tabela: Future of Humanity Institute, 2008.

O relatório anual de 2016 da Global Challenges Foundation estima que um americano médio tem mais de cinco vezes mais chances de morrer durante um evento de extinção humana do que em um acidente de carro.

Existem desafios metodológicos significativos na estimativa desses riscos com precisão. Foi dada muita atenção aos riscos para a civilização humana nos próximos 100 anos, mas a previsão para esse período de tempo é difícil. Os tipos de ameaças colocadas pela natureza têm sido relativamente constantes, embora isso tenha sido contestado e novos riscos possam ser descobertos. Ameaças antropogênicas, no entanto, provavelmente mudarão drasticamente com o desenvolvimento de novas tecnologias; Embora os vulcões tenham sido uma ameaça ao longo da história, as armas nucleares têm sido um problema apenas desde o século XX. Historicamente, a capacidade dos especialistas em prever o futuro nesses prazos se mostrou muito limitada. Ameaças provocadas pelo homem, como guerra nuclear ou nanotecnologia, são mais difíceis de prever do que ameaças naturais, devido às dificuldades metodológicas inerentes às ciências sociais. Em geral, é difícil estimar a magnitude do risco desse ou de outros perigos, principalmente porque as relações internacionais e a tecnologia podem mudar rapidamente.

Os riscos existentes apresentam desafios únicos à previsão, ainda mais do que outros eventos de longo prazo, devido aos efeitos da seleção da observação. Ao contrário da maioria dos eventos, o fracasso de um evento completo de extinção ocorrer no passado não é uma evidência contra sua probabilidade no futuro, porque todo mundo que passou por esse evento de extinção não tem observadores; portanto, independentemente de sua frequência, nenhuma civilização observa. riscos existenciais em sua história. Esses problemas antrópicos podem ser evitados observando evidências que não produzem efeitos de seleção, como crateras de impacto de asteroides na Lua ou avaliando diretamente o provável impacto de novas tecnologias.

Além dos riscos conhecidos e tangíveis, podem ocorrer eventos imprevisíveis de extinção do cisne negro, apresentando um problema metodológico adicional.

Importância moral do risco existencial

Alguns estudiosos são fortemente favoráveis à redução do risco existencial, alegando que ele beneficia muito as gerações futuras. Derek Parfit argumenta que a extinção seria uma grande perda, porque nossos descendentes poderiam sobreviver por quatro bilhões de anos antes que a expansão do Sol torne a Terra inabitável.Nick Bostrom argumenta que existe um potencial ainda maior na colonização do espaço. Se os futuros seres humanos colonizarem o espaço, eles poderão suportar um número muito grande de pessoas em outros planetas, com duração potencial de trilhões de anos. Portanto, reduzir o risco existencial em até uma pequena quantidade teria um impacto muito significativo no número esperado de pessoas que existirão no futuro.

O desconto exponencial pode tornar esses benefícios futuros muito menos significativos. No entanto, Jason Matheny argumentou que esse desconto é inadequado ao avaliar o valor da redução de risco existencial.

Alguns economistas discutiram a importância dos riscos catastróficos globais, embora não existenciais. Martin Weitzman argumenta que a maioria dos danos econômicos esperados das mudanças climáticas pode vir da pequena chance de que o aquecimento exceda muito as expectativas de médio alcance, resultando em danos catastróficos.Richard Posner argumentou que estamos fazendo muito pouco, em geral, sobre riscos pequenos e difíceis de estimar de catástrofes em larga escala.

Inúmeros desvios cognitivos podem influenciar o julgamento das pessoas sobre a importância dos riscos existenciais, incluindo insensibilidade ao escopo, desconto hiperbólico, heurística de disponibilidade, falácia da conjunção, heurística de afetação e efeito de excesso de confiança.

A insensibilidade do escopo influencia o quão ruim as pessoas consideram a extinção da raça humana. Por exemplo, quando as pessoas são motivadas a doar dinheiro para causas altruístas, a quantidade que estão dispostas a dar não aumenta linearmente com a magnitude da questão: as pessoas ficam tão preocupadas com cerca de 200.000 pássaros que ficam presos no petróleo quanto com 2.000. Da mesma forma, as pessoas geralmente estão mais preocupadas com ameaças a indivíduos do que a grupos maiores.

Existem razões econômicas que podem explicar por que tão pouco esforço está sendo gasto na redução de riscos existenciais. É um bem global; portanto, mesmo que uma nação grande o diminua, essa nação terá apenas uma pequena fração do benefício de fazê-lo. Além disso, a grande maioria dos benefícios pode ser desfrutada por gerações futuras muito distintas, e embora esses quatrilhões de pessoas futuras estariam, em teoria, talvez dispostos a pagar quantias massivas pela redução existencial de riscos, não existe mecanismo para essa transação.

Fontes potenciais de risco

Algumas fontes de risco catastrófico são naturais, como impactos de meteoros ou supervulcões. Alguns deles causaram extinções em massa no passado. Por outro lado, alguns riscos são causados pelo homem, como aquecimento global, degradação ambiental, pandemias projetadas e guerra nuclear.

Antropogênico

O Projeto Cambridge da Universidade de Cambridge afirma que as "maiores ameaças" à espécie humana são criadas pelo homem; eles são inteligência artificial, aquecimento global, guerra nuclear e biotecnologia desonesta. O Instituto Futuro da Humanidade também afirma que a extinção humana é mais provável de resultar de causas antropogênicas do que causas naturais.

Inteligência artificial

Foi sugerido que o aprendizado de computadores que rapidamente se tornam superinteligentes pode executar ações imprevistas ou que os robôs superariam a humanidade (um cenário de singularidade tecnológica). Devido à sua excepcional capacidade de programação e organização e à variedade de novas tecnologias que ele poderia desenvolver, é possível que a primeira superinteligência da Terra a surgir se torne rapidamente incomparável e sem rival: é concebível que seja capaz de produzir quase qualquer resultado possível e ser capaz de frustrar virtualmente qualquer tentativa que ameaçava impedi-lo de atingir seus objetivos. Poderia eliminar, eliminando se escolhesse, qualquer outro intelecto rival desafiador; alternativamente, pode manipulá-los ou persuadi-los a mudar seu comportamento em relação aos seus próprios interesses, ou pode apenas obstruir suas tentativas de interferência. Nesse sentido, a pesquisa no alinhamento da inteligência artificial aborda a necessidade de direcionar os sistemas de IA aos objetivos e interesses humanos. No livro de Nick Bostrom Superintelligence: Paths, Dangers, Strategies, o autor define isso como o problema de controle. físico Stephen Hawking, Bill Gates, fundador da Microsoft, e Elon Musk, da SpaceX, ecoaram essas preocupações, com Hawking teorizando que essa IA poderia "significar o fim da raça humana".

Em 2009, a Associação para o Avanço da Inteligência Artificial (AAAI) organizou uma conferência para discutir se computadores e robôs podem adquirir algum tipo de autonomia e quanto essas habilidades podem representar uma ameaça ou perigo. Eles observaram que alguns robôs adquiriram várias formas de semi-autonomia, incluindo a capacidade de encontrar fontes de energia por conta própria e a capacidade de escolher independentemente alvos para atacar com armas. Eles também observaram que alguns vírus de computador podem evitar a eliminação e alcançaram "inteligência de barata". Eles observaram que a autoconsciência retratada na ficção científica provavelmente é improvável, mas que havia outros perigos e armadilhas em potencial. Várias fontes de mídia e grupos científicos observaram tendências separadas em diferentes áreas, que juntas podem resultar em maior funcionalidade e autonomia robótica e que apresentam algumas preocupações inerentes.

Uma pesquisa com especialistas em IA estimou que a chance de o aprendizado de máquina no nível humano ter um efeito de longo prazo "extremamente ruim (por exemplo, extinção humana)" sobre a humanidade é de 5%. Uma pesquisa de 2008 do Instituto Futuro da Humanidade estimou uma probabilidade de 5% de extinção por superinteligência em 2100.Eliezer Yudkowsky acredita que os riscos da inteligência artificial são mais difíceis de prever do que quaisquer outros riscos conhecidos devido ao viés do antropomorfismo. Como as pessoas baseiam seus julgamentos de inteligência artificial em suas próprias experiências, ele afirma que subestimam o poder potencial da IA.

Biotecnologia

A biotecnologia pode representar um risco catastrófico global na forma de organismos de engenharia biológica (vírus, bactérias, fungos, plantas ou animais). Em muitos casos, o organismo será um patógeno de seres humanos, gado, culturas ou outros organismos dos quais dependemos (por exemplo, polinizadores ou bactérias intestinais). No entanto, qualquer organismo capaz de perturbar catastroficamente as funções do ecossistema, por exemplo, ervas daninhas altamente competitivas, superando as culturas essenciais, apresenta um risco de biotecnologia.

Uma catástrofe biotecnológica pode ser causada pela liberação acidental de um organismo geneticamente modificado de ambientes controlados, pela liberação planejada de um organismo que acaba por ter interações imprevistas e catastróficas com agroecossistemas naturais ou naturais, ou pelo uso intencional de agentes biológicos em guerra biológica ou ataques de bioterrorismo. Os patógenos podem ser modificados geneticamente intencionalmente ou não para alterar a virulência e outras características. Por exemplo, um grupo de pesquisadores australianos alterou involuntariamente as características do vírus da varíola do rato enquanto tentava desenvolver um vírus para esterilizar roedores. O vírus modificado tornou-se altamente letal, mesmo em camundongos vacinados e naturalmente resistentes. É provável que os meios tecnológicos para modificar geneticamente as características do vírus se tornem mais amplamente disponíveis no futuro, se não forem adequadamente regulamentados.

As aplicações terroristas da biotecnologia têm sido historicamente pouco frequentes. Até que ponto isso se deve à falta de capacidade ou motivação não é resolvido. No entanto, dado o desenvolvimento atual, é esperado um maior risco de novos patógenos projetados no futuro. O crescimento exponencial foi observado no setor de biotecnologia, e Noun e Chyba prevêem que isso levará a grandes aumentos nas capacidades biotecnológicas nas próximas décadas. Eles argumentam que os riscos da guerra biológica e do bioterrorismo são distintos das ameaças nucleares e químicas, porque os patógenos biológicos são mais fáceis de produzir em massa e sua produção é difícil de controlar (especialmente porque as capacidades tecnológicas estão se tornando disponíveis mesmo para usuários individuais). Em 2008, uma pesquisa do Instituto Futuro da Humanidade estimou uma probabilidade de 2% de extinção de pandemias projetadas até 2100.

Noun e Chyba propõem três categorias de medidas para reduzir os riscos da biotecnologia e das pandemias naturais: regulamentação ou prevenção de pesquisas potencialmente perigosas, melhor reconhecimento de surtos e desenvolvimento de instalações para mitigar surtos de doenças (por exemplo, vacinas melhores e/ou mais amplamente distribuídas).

Ataque cibernético

Ver artigo principal: Ciberterrorismo

Os ataques cibernéticos têm o potencial de destruir tudo, de dados pessoais a redes elétricas. Christine Peterson, cofundadora e ex-presidente do Foresight Institute, acredita que um ataque cibernético em redes elétricas tem o potencial de ser um risco catastrófico.

Desastre ambiental

Um desastre ambiental ou ecológico, como a quebra da safra mundial e o colapso dos serviços ecossistêmicos, pode ser induzido pelas tendências atuais de superpopulação, desenvolvimento econômico e agricultura não sustentável. A maioria dos cenários ambientais envolve um ou mais dos seguintes: evento de extinção do holoceno,escassez de água que poderia levar a aproximadamente metade da população da Terra a não ter água potável, declínio de polinizadores, pesca excessiva, desmatamento em massa, desertificação, mudança climática, ou episódios maciços de poluição da água. Detectada no início do século XXI, uma ameaça nessa direção é o distúrbio do colapso das colônias, um fenômeno que pode prever a extinção iminente da abelha ocidental. Como a abelha desempenha um papel vital na polinização, sua extinção prejudicaria severamente a cadeia alimentar.

Um relatório de outubro de 2017 publicado no The Lancet afirmou que o ar, a água, os solos e os locais de trabalho tóxicos eram coletivamente responsáveis por 9 milhões de mortes em todo o mundo em 2015, principalmente devido à poluição do ar que estava ligada a mortes pelo aumento da suscetibilidade a doenças não infecciosas, como doença cardíaca, derrame e câncer de pulmão. O relatório alertou que a crise da poluição estava excedendo "o envelope com a quantidade de poluição que a Terra pode carregar" e "ameaça a sobrevivência contínua das sociedades humanas".

Acidente de tecnologia experimental

Nick Bostrom sugeriu que, na busca do conhecimento, a humanidade poderia criar inadvertidamente um dispositivo que poderia destruir a Terra e o Sistema Solar. Investigações em física nuclear e de alta energia podem criar condições incomuns com consequências catastróficas. Por exemplo, os cientistas temiam que o primeiro teste nuclear pudesse inflamar a atmosfera. Outros temiam que o RHIC ou o Large Hadron Collider pudesse iniciar um desastre global de reação em cadeia envolvendo buracos negros, strangelets ou estados de vácuo falso. Essas preocupações específicas foram refutadas, mas a preocupação geral permanece.

A biotecnologia pode levar à criação de uma guerra química pandêmica, pode ser levada ao extremo, a nanotecnologia pode levar a uma gosma cinzenta, na qual robôs auto-replicantes fora de controle consomem toda a matéria viva da Terra enquanto constroem mais de si mesmos - em ambos. deliberadamente ou por acidente.

Aquecimento global

O aquecimento global refere-se ao aquecimento causado pela tecnologia humana desde o século XIX ou anterior. Projeções de mudanças climáticas futuras sugerem mais aquecimento global, aumento do nível do mar e aumento na frequência e gravidade de alguns eventos climáticos extremos e desastres relacionados ao clima. Os efeitos do aquecimento global incluem perda de biodiversidade, estresse nos sistemas de produção de alimentos existentes, aumento da disseminação de doenças infecciosas conhecidas como a malária e rápida mutação de microorganismos. Em novembro de 2017, uma declaração de 15.364 cientistas de 184 países indicou que os níveis crescentes de gases de efeito estufa decorrentes do uso de combustíveis fósseis, crescimento da população humana, desmatamento e uso excessivo de terra para produção agrícola, particularmente na agricultura de ruminantes para consumo de carne, estão em alta. maneiras que prevêem um aumento na miséria humana nas próximas décadas.

Esgotamento de recursos minerais

O economista norte-americano romeno Nicholas Georgescu-Roegen, um progenitor em economia e fundador do paradigma da economia ecológica, argumentou que a capacidade de suporte da Terra - ou seja, a capacidade da Terra de sustentar populações humanas e níveis de consumo - deverá diminuir em algum momento no futuro como o estoque finito de recursos minerais da Terra está sendo atualmente extraído e colocado em uso; e conseqüentemente, que a economia mundial como um todo está caminhando para um colapso futuro inevitável, levando ao fim da própria civilização humana. economista ecológico e teórico do estado estacionário Herman Daly, estudante de Georgescu-Roegen, propôs o mesmo argumento afirmando que "...tudo o que podemos fazer é evitar desperdiçar a capacidade limitada da criação de apoiar os presentes e vida futura [na Terra]".

Desde que Georgescu-Roegen e Daly publicaram essas opiniões, vários estudiosos da área discutem a impossibilidade existencial de alocar o estoque finito de recursos minerais da Terra igualmente entre um número desconhecido de gerações presentes e futuras. É provável que esse número de gerações permaneça desconhecido para nós, pois não há maneira - ou apenas uma maneira - de saber antecipadamente se ou quando a humanidade acabará enfrentando a extinção. De fato, qualquer alocação intertemporal concebível das ações inevitavelmente terminará em declínio econômico universal em algum momento futuro.

Nanotecnologia

Muitas tecnologias em nanoescala estão em desenvolvimento ou atualmente em uso. O único que parece representar um risco catastrófico global significativo é a fabricação molecular, uma técnica que tornaria possível a construção de estruturas complexas com precisão atômica. A fabricação molecular requer avanços significativos na nanotecnologia, mas uma vez alcançada, poderia produzir produtos altamente avançados a baixos custos e em grandes quantidades em nanofábricas de proporções de mesa. Quando as nanofábricas ganham a capacidade de produzir outras nanofábricas, a produção pode ser limitada apenas por fatores relativamente abundantes, como materiais de entrada, energia e software.

A fabricação molecular poderia ser usada para produzir, entre muitos outros produtos, armas baratas e altamente avançadas e duráveis. Ao serem equipados com computadores e motores compactos, eles podem ser cada vez mais autônomos e ter uma grande variedade de recursos.

Chris Phoenix e Treder classificam os riscos catastróficos impostos pela nanotecnologia em três categorias:

  1. De aumentar o desenvolvimento de outras tecnologias, como IA e biotecnologia.
  2. Ao permitir a produção em massa de produtos potencialmente perigosos que causam dinâmica de risco (como corridas de armas), dependendo de como são usados.
  3. De processos auto-perpetuados não controlados com efeitos destrutivos.

Vários pesquisadores afirmam que a maior parte do risco da nanotecnologia vem do potencial de levar à guerra, à corrida armamentista e ao governo global destrutivo. Várias razões foram sugeridas pelas quais a disponibilidade de armamento de nanotecnologia pode, com probabilidade significativa, levar a corridas instáveis de armas (em comparação com, por exemplo, corridas nucleares):

  1. Um grande número de jogadores pode ficar tentado a entrar na corrida, já que o limiar para isso é baixo;
  2. A capacidade de fabricar armas com fabricação molecular será barata e fácil de esconder;
  3. Portanto, a falta de conhecimento das capacidades das outras partes pode tentar os jogadores a se precaverem ou a fazer ataques preventivos;
  4. A fabricação molecular pode reduzir a dependência do comércio internacional, um potencial fator de promoção da paz;
  5. As guerras de agressão podem representar uma ameaça econômica menor para o agressor, uma vez que a fabricação é barata e os humanos podem não ser necessários no campo de batalha.

Como a auto-regulação de todos os atores estatais e não estatais parece difícil de alcançar, medidas para mitigar riscos relacionados à guerra foram propostas principalmente na área de cooperação internacional. A infraestrutura internacional pode ser expandida, dando mais soberania ao nível internacional. Isso poderia ajudar a coordenar os esforços para o controle de armas. Instituições internacionais dedicadas especificamente à nanotecnologia (talvez analogamente à Agência Internacional de Energia Atômica AIEA) ou ao controle geral de armas também podem ser projetadas. Pode-se também fazer progressos tecnológicos diferenciados em tecnologias defensivas, uma política que os jogadores geralmente devem favorecer. O Centro de Nanotecnologia Responsável também sugere algumas restrições técnicas. Maior transparência em relação às capacidades tecnológicas pode ser outro importante facilitador do controle de armas.

A gosma cinzenta é outro cenário catastrófico, proposto por Eric Drexler em seu livro de 1986, Engines of Creation e tem sido um tema na grande mídia e ficção. Esse cenário envolve pequenos robôs auto-replicantes que consomem toda a biosfera, usando-a como fonte de energia e componentes. Atualmente, no entanto, especialistas em nanotecnologia - incluindo Drexler - desacreditam o cenário. Segundo Phoenix, "a chamada gosma cinzenta só poderia ser o produto de um processo de engenharia deliberado e difícil, não um acidente".

Guerra e destruição em massa

O pôster Liberty Bond de Joseph Pennell de 1918 evoca a imagem pictórica de uma Nova Iorque invadida e em chamas.

Os cenários que foram explorados com mais frequência são a guerra nuclear e os dispositivos do dia do juízo final. O lançamento errado de um ataque nuclear em resposta a um alarme falso é um cenário possível; isso quase aconteceu durante o incidente soviético de alarme falso nuclear de 1983. Embora a probabilidade de uma guerra nuclear por ano seja pequena, o professor Martin Hellman a descreve como inevitável a longo prazo; a menos que a probabilidade chegue a zero, inevitavelmente chegará o dia em que a sorte da civilização se esgotará. Durante a crise dos mísseis cubanos, o presidente dos EUA, John F. Kennedy, estimou as chances de uma guerra nuclear em "algo entre um em cada três e até mesmo". Os Estados Unidos e a Rússia têm um arsenal combinado de 14.700 armas nucleares, e há um total estimado de 15.700 armas nucleares em todo o mundo. Além da nuclear, outras ameaças militares à humanidade incluem a guerra biológica (BW). Por outro lado, é improvável que a guerra química, apesar de capaz de criar múltiplas catástrofes locais, crie uma global.

A guerra nuclear poderia gerar mortes sem precedentes em humanos e destruição de habitats. A detonação de um grande número de armas nucleares teria efeitos imediatos, de curto e de longo prazo no clima, causando clima frio e redução da luz solar e da fotossíntese que podem gerar agitação significativa em civilizações avançadas. No entanto, embora a percepção popular às vezes leve a guerra nuclear como "o fim do mundo", os especialistas atribuem baixa probabilidade à extinção humana da guerra nuclear. Em 1982, Brian Martin estimou que uma troca nuclear EUA-Soviética poderia matar de 400 a 450 milhões diretamente, principalmente nos Estados Unidos, Europa e Rússia, e talvez centenas de milhões a mais por consequências subsequentes naquelas mesmas áreas. Em 2008, uma pesquisa do Instituto Futuro da Humanidade estimou uma probabilidade de 4% de extinção da guerra em 2100, com 1% de chance de extinção da guerra nuclear.

População mundial e crise agrícola

Ver também: Superpopulação

O século XX viu um rápido aumento da população humana devido a desenvolvimentos médicos e aumentos maciços na produtividade agrícola, como a Revolução Verde. Entre 1950 e 1984, quando a Revolução Verde transformou a agricultura em todo o mundo, a produção mundial de grãos aumentou 250%. A Revolução Verde na agricultura ajudou a produção de alimentos a acompanhar o crescimento da população mundial ou, de fato, permitir o crescimento da população. A energia para a Revolução Verde foi fornecida por combustíveis fósseis na forma de fertilizantes (gás natural), pesticidas (óleo) e irrigação por hidrocarbonetos. David Pimentel, professor de ecologia e agricultura na Universidade de Cornell, e Mario Giampietro, pesquisador sênior do Instituto Nacional de Pesquisa sobre Alimentação e Nutrição (INRAN), definem em seu estudo de 1994 Alimentos, Terras, População e Economia dos EUA que o máximo de pessoas nos EUA para uma economia sustentável seja de 200 milhões. Para alcançar uma economia sustentável e evitar desastres, os Estados Unidos devem reduzir sua população em pelo menos um terço, e a população mundial terá que ser reduzida em dois terços, diz o estudo.

Os autores deste estudo acreditam que a crise agrícola mencionada começará a afetar o mundo a partir de 2020 e se tornará crítica a partir de 2050. O geólogo Dale Allen Pfeiffer afirma que as próximas décadas poderão ver a espiral dos preços dos alimentos sem alívio e fome maciça. nível global como nunca experimentado antes.

O trigo é o terceiro cereal mais produzido da humanidade. Infecções fúngicas existentes como Ug99 (um tipo de ferrugem do caule) podem causar 100% de perda de safra na maioria das variedades modernas. É possível pouco ou nenhum tratamento e a infecção se espalha pelo vento. Se as grandes áreas produtoras de grãos do mundo forem infectadas, a crise subsequente na disponibilidade de trigo levaria a picos de preços e escassez de outros produtos alimentícios.

Não antropogênico

Impacto asteroide

Vários asteroides colidiram com a Terra na história geológica recente. O asteroide Chicxulub, por exemplo, tinha cerca de 10 quilômetros de diâmetro e, teoricamente, causou a extinção de dinossauros não aviários há 66 milhões de anos no final do Cretáceo. Atualmente, nenhum asteroide suficientemente grande existe em uma órbita de travessia da Terra; no entanto, um cometa de tamanho suficiente para causar a extinção humana pode impactar a Terra, embora a probabilidade anual possa ser inferior a 10-8. geocientista Brian Toon estima que, embora algumas pessoas, como "alguns pescadores da Costa Rica", possam sobreviver de maneira plausível a um meteorito de 10 quilômetros, um meteorito de 160 quilômetros seria grande o suficiente para "incinerar todo mundo". Asteroides com cerca de 1 km de diâmetro impactam a Terra em média uma vez a cada 500.000 anos; estes são provavelmente pequenos demais para representar um risco de extinção, mas podem matar bilhões de pessoas. Asteroides maiores são menos comuns. Pequenos asteroides próximos à Terra são observados regularmente e podem impactar em qualquer lugar da Terra, prejudicando as populações locais. Desde 2013, o Spaceguard estima ter identificado 95% de todos os NEOs ao longo de 1 km em tamanho.

Em abril de 2018, a Fundação B612 informou: "É 100% certo de que seremos atingidos [por um asteroide devastador], mas não temos 100% de certeza de quando". Também em 2018, o físico Stephen Hawking, em seu livro final Breves respostas às grandes perguntas, considerou uma colisão de asteroides a maior ameaça ao planeta. Em junho de 2018, o Conselho Nacional de Ciência e Tecnologia dos EUA alertou que os EUA não estão preparados para um evento de impacto de asteroides e desenvolveu e lançou o "Plano de Ação da Estratégia Nacional de Preparação para Objetos Próximo à Terra" para melhor preparar. De acordo com testemunhos de especialistas no Congresso dos Estados Unidos em 2013, a NASA exigiria pelo menos cinco anos de preparação antes que uma missão para interceptar um asteroide pudesse ser lançada.

Ameaças cósmicas

Várias ameaças astronômicas foram identificadas. Objetos maciços, por exemplo, uma estrela, grande planeta ou buraco negro, podem ser catastróficos se ocorrer um encontro próximo no Sistema Solar. Em abril de 2008, foi anunciado que duas simulações de movimento planetário de longo prazo, uma no Observatório de Paris e outra na Universidade da Califórnia, Santa Cruz, indicam uma chance de 1% de que a órbita de Mercúrio possa ser instável pela força gravitacional de Júpiter. em algum momento durante a vida útil do sol. Se isso acontecesse, as simulações sugerem que uma colisão com a Terra poderia ser um dos quatro possíveis resultados (os outros sendo Mercúrio colidindo com o Sol, colidindo com Vênus ou sendo totalmente expulso do Sistema Solar). Se Mercúrio colidisse com a Terra, toda a vida na Terra poderia ser completamente obliterada: acredita-se que um asteroide de 15 km de largura tenha causado a extinção dos dinossauros não aviários, enquanto Mercúrio tem 4.879 km de diâmetro.

Outra ameaça cósmica é uma explosão de raios gama, normalmente produzida por uma supernova quando uma estrela entra em colapso para dentro de si mesma e depois "salta" para fora em uma explosão maciça. Sob certas circunstâncias, acredita-se que esses eventos produzam explosões maciças de radiação gama emanando para fora do eixo de rotação da estrela. Se um evento desse tipo ocorrer orientado para a Terra, grandes quantidades de radiação gama podem afetar significativamente a atmosfera da Terra e representar uma ameaça existencial para toda a vida. Tal explosão de raios gama pode ter sido a causa dos eventos de extinção do Ordoviciano-Siluriano. Nem este cenário nem a desestabilização da órbita de Mercúrio são prováveis no futuro próximo.

Uma forte erupção solar ou tempestade solar, que é uma diminuição ou aumento drástico e incomum na produção de energia solar, pode ter graves consequências para a vida na Terra.

Se o nosso universo estiver dentro de um vácuo falso, uma bolha de vácuo de energia mais baixa pode vir a existir por acaso ou de outra forma em nosso universo, e catalisar a conversão do nosso universo para um estado de energia mais baixo em um volume que se expande quase à velocidade da luz, destruindo tudo o que sabemos sem aviso prévio. Tal ocorrência é chamada decaimento a vácuo.

O resultado mais previsível para o futuro da Terra é a expansão do Sol em uma estrela gigante vermelha. O Sol terá cerca de 12 bilhões de anos e se expandirá para engolir Mercúrio e Vênus, atingindo um raio máximo de 1,2 unidades astronômicas (180.000.000 km). A Terra irá interagir de forma ordenada com a atmosfera externa do Sol, o que serviria para diminuir o raio orbital da Terra. O arrasto da cromosfera do Sol também reduziria a órbita da Terra. Esses efeitos agirão para contrabalançar o efeito da perda de massa pelo Sol, e a Terra provavelmente será tragada pelo Sol.

Invasão extraterrestre

Ver artigo principal: Invasão alienígena

A vida extraterrestre inteligente, se existente, poderia invadir a Terra para exterminar e suplantar a vida humana, escravizá-la sob um sistema colonial, roubar os recursos do planeta ou destruir o planeta completamente.

Embora a evidência de vida alienígena nunca tenha sido comprovada, cientistas como Carl Sagan postularam que a existência de vida extraterrestre é muito provável. Em 1969, a "Lei de Exposição Extra-Terrestre" foi adicionada ao Código de Regulamentos Federais dos Estados Unidos (Título 14, Seção 1211) em resposta à possibilidade de contaminação biológica resultante do Programa Espacial Apollo dos EUA. Foi removido em 1991. Os cientistas consideram esse cenário tecnicamente possível, mas improvável.

Um artigo do The New York Times discutiu as possíveis ameaças para a humanidade de enviar intencionalmente mensagens destinadas à vida extraterrestre no cosmos no contexto dos esforços do SETI. Várias figuras públicas de renome, como Stephen Hawking e Elon Musk, argumentaram contra o envio de tais mensagens, alegando que civilizações extraterrestres com tecnologia provavelmente são muito mais avançadas que a humanidade e podem representar uma ameaça existencial para a humanidade.

Pandemia global

Numerosos exemplos históricos de pandemias tiveram um efeito devastador em um grande número de pessoas. A atual escala e velocidade sem precedentes do movimento humano tornam mais difícil do que nunca conter uma epidemia por meio de quarentenas locais, e outras fontes de incerteza e a natureza evolutiva do risco significam que as pandemias naturais podem representar uma ameaça realista à civilização humana.

Existem várias classes de argumento sobre a probabilidade de pandemias. Uma classe de argumento sobre probabilidade deriva da história das pandemias, onde o tamanho limitado das pandemias históricas é uma evidência de que pandemias maiores são improváveis. Este argumento foi contestado por vários motivos, incluindo o risco de mudança devido à mudança de padrões populacionais e comportamentais entre os seres humanos, o registro histórico limitado e a existência de um viés antrópico.

Outro argumento sobre a probabilidade de pandemias é baseado em um modelo evolutivo que prevê que patógenos em evolução natural acabarão por desenvolver um limite superior à sua virulência. Isso ocorre porque patógenos com virulência alta o suficiente matam rapidamente seus hospedeiros e reduzem suas chances de espalhar a infecção para novos hospedeiros ou portadores. Este modelo tem limites, no entanto, porque a vantagem de uma virulência limitada é principalmente uma função de um número limitado de hospedeiros. Qualquer patógeno com alta virulência, alta taxa de transmissão e longo tempo de incubação já pode ter causado uma pandemia catastrófica antes que a virulência seja limitada por seleção natural. Além disso, um patógeno que infecta seres humanos como hospedeiro secundário e infecta principalmente outras espécies (uma zoonose) não possui restrições quanto à sua virulência nas pessoas, uma vez que as infecções secundárias acidentais não afetam sua evolução. Por último, em modelos onde o nível de virulência e taxa de transmissão são ligadas, altos níveis de virulência pode evoluir. virulência é limitada pela existência de populações complexas de hospedeiros com diferentes suscetibilidades à infecção ou por alguns hospedeiros serem geograficamente isolados. O tamanho da população hospedeira e a competição entre diferentes cepas de patógenos também podem alterar a virulência.

Nenhum desses argumentos é aplicável aos patógenos da bioengenharia, e isso representa riscos totalmente diferentes de pandemias. Os especialistas concluíram que "os desenvolvimentos em ciência e tecnologia podem facilitar significativamente o desenvolvimento e o uso de armas biológicas de alta consequência", e esses "patógenos de engenharia biológica altamente virulentos e altamente transmissíveis representam novas ameaças potenciais à pandemia".

Mudança climática natural

Mudança climática refere-se a uma mudança duradoura no clima da Terra. O clima variou de eras glaciais a períodos mais quentes, quando as palmeiras cresceram na Antártica. Foi postulado que houve também um período chamado "bola de neve da Terra", quando todos os oceanos estavam cobertos por uma camada de gelo. Essas mudanças climáticas globais ocorreram lentamente, antes da ascensão da civilização humana cerca de 10 mil anos atrás, perto do final da última Era do Gelo Maior, quando o clima se tornou mais estável. No entanto, mudanças climáticas abruptas na escala da década ocorreram regionalmente. Como a civilização se originou durante um período de clima estável, uma variação natural em um novo regime climático (mais frio ou mais quente) poderia representar uma ameaça para a civilização.

Na história da Terra, sabe-se que muitas eras glaciais ocorreram. Uma era glacial teria um sério impacto na civilização, porque vastas áreas de terra (principalmente na América do Norte, Europa e Ásia) poderiam se tornar inabitáveis. Atualmente, o mundo está em um período interglacial dentro de um evento glacial muito mais antigo. A última expansão glacial terminou cerca de 10.000 anos atrás, e todas as civilizações evoluíram depois disso. Os cientistas não preveem que uma era glacial natural ocorrerá tão cedo.[carece de fontes?]A quantidade de gases captadores de calor emitidos nos oceanos e na atmosfera da Terra impedirá a próxima era glacial, que de outra forma começaria em cerca de 50.000 anos e provavelmente mais ciclos glaciais.

Vulcanismo

Um evento geológico como basalto maciço de inundação, vulcanismo ou erupção de um supervulcão pode levar ao chamado inverno vulcânico, semelhante ao inverno nuclear. Um desses eventos, a erupção de Toba, ocorreu na Indonésia há cerca de 71.500 anos atrás. De acordo com a teoria da catástrofe de Toba, o evento pode ter reduzido as populações humanas para apenas algumas dezenas de milhares de indivíduos. A Caldera de Yellowstone é outro supervulcão, tendo sofrido 142 ou mais erupções na caldeira nos últimos 17 milhões de anos. Uma erupção maciça do vulcão lançaria volumes extraordinários de poeira vulcânica, gases tóxicos e de efeito estufa na atmosfera, com sérios efeitos no clima global (em direção ao resfriamento global extremo: inverno vulcânico se for de curto prazo e idade do gelo se de longo prazo) ou aquecimento global (se os gases de efeito estufa prevalecerem).

Quando o supervulcão de Yellowstone entrou em erupção pela última vez, há 640.000 anos, as camadas mais finas das cinzas ejetadas da caldeira se espalharam pela maior parte dos Estados Unidos, a oeste do rio Mississippi e parte do nordeste do México. O magma cobriu grande parte do que é hoje o Parque Nacional de Yellowstone e se estendeu para além, cobrindo grande parte do solo desde o rio Yellowstone no leste até as quedas de Idaho no oeste, com alguns dos fluxos se estendendo para o norte além de Mammoth Springs.

De acordo com um estudo recente, se a caldeira de Yellowstone entrar em erupção novamente como um supervulcão, uma camada de cinza de um a três milímetros de espessura poderá ser depositada em lugares tão distantes quanto Nova York, o suficiente para "reduzir a tração nas estradas e pistas, diminuir transformadores elétricos e causar Problemas respiratórios". Haveria centímetros de espessura em grande parte do centro-oeste dos EUA, o suficiente para atrapalhar as plantações e o gado, especialmente se isso acontecesse em um momento crítico da estação de crescimento. A cidade mais afetada provavelmente seria 109.000 habitantes em Billings, Montana, que o modelo previa que seriam cobertos com cinzas estimadas entre 1,03 e 1,8 metros de espessura.

O principal efeito a longo prazo é a mudança climática global, que reduz a temperatura globalmente em cerca de 5 a 15 ºC por uma década, juntamente com os efeitos diretos dos depósitos de cinzas em suas culturas. Um grande supervulcão como Toba depositaria um ou dois metros de espessura de cinzas em uma área de vários milhões de quilômetros quadrados (1000 quilômetros cúbicos é equivalente a uma espessura de um metro de cinzas espalhadas por um milhão de quilômetros quadrados). Se isso acontecesse em alguma área agrícola densamente povoada, como a Índia, poderia destruir uma ou duas estações de cultivo para dois bilhões de pessoas.

No entanto, Yellowstone não mostra sinais de supererupção no momento, e não é certo que uma supererupção futura ocorra lá.

Pesquisa publicada em 2011 encontra evidências de que erupções vulcânicas maciças causaram combustão maciça de carvão, apoiando modelos para geração significativa de gases de efeito estufa. Pesquisadores sugeriram que erupções vulcânicas maciças através de leitos de carvão na Sibéria gerariam gases de efeito estufa significativos e causariam um efeito estufa descontrolado. Erupções maciças também podem lançar detritos piroclásticos e outros materiais suficientes na atmosfera para bloquear parcialmente o sol e causar um inverno vulcânico, como aconteceu em menor escala em 1816 após a erupção do Monte Tambora, o chamado Ano Sem Verão. Tal erupção pode causar a morte imediata de milhões de pessoas a centenas de quilômetros da erupção, e talvez bilhões de mortes em todo o mundo, devido ao fracasso das monções, resultando em grandes falhas de safra, causando fome em escala profunda.

Um conceito muito mais especulativo é o verneshot: uma erupção vulcânica hipotética causada pelo acúmulo de gás nas profundezas de um craton. Tal evento pode ser forte o suficiente para lançar uma quantidade extrema de material da crosta e manto em uma trajetória sub-orbital.

Mitigação proposta

O gerenciamento planetário e o respeito aos limites planetários têm sido propostos como abordagens para a prevenção de catástrofes ecológicas. Dentro do escopo dessas abordagens, o campo da geoengenharia abrange a engenharia e manipulação deliberada em larga escala do ambiente planetário para combater ou neutralizar mudanças antropogênicas na química atmosférica. A colonização espacial é uma alternativa proposta para melhorar as chances de sobreviver a um cenário de extinção. soluções deste escopo podem exigir engenharia em escala mega. O armazenamento de alimentos foi proposto globalmente, mas o custo monetário seria alto. Além disso, provavelmente contribuiria para os atuais milhões de mortes por ano devido à desnutrição.

Alguns sobreviventes provêm retiros de sobrevivência com suprimentos alimentares de vários anos.

O Svalbard Global Seed Vault está enterrado a 400 pés (120 m) dentro de uma montanha em uma ilha no Ártico. Ele foi projetado para armazenar 2,5 bilhões de sementes de mais de 100 países como uma precaução para preservar as colheitas do mundo. A rocha circundante é −6 °C (21,2 °F<) (a partir de 2015), mas o cofre é mantido em −18 °C (−0,4  °F<) por refrigeradores alimentados a carvão local.

Mais especulativamente, se a sociedade continuar funcionando e se a biosfera permanecer habitável, as necessidades calóricas para a população humana atual poderão, em teoria, ser atendidas durante uma ausência prolongada de luz solar, mediante planejamento prévio suficiente. As soluções conjeturadas incluem o cultivo de cogumelos na biomassa da planta morta deixada após a catástrofe, a conversão de celulose em açúcar ou a alimentação de gás natural a bactérias que digerem metano.

Riscos catastróficos globais e governança global

Uma governança global insuficiente cria riscos no domínio social e político, mas os mecanismos de governança se desenvolvem mais lentamente do que as mudanças tecnológicas e sociais. Existem preocupações dos governos, do setor privado e do público em geral sobre a falta de mecanismos de governança para lidar eficientemente com riscos, negociar e julgar entre interesses diversos e conflitantes. Isso é ainda mais sublinhado pelo entendimento da interconectividade dos riscos sistêmicos globais. Na ausência ou antecipação da governança global, os governos nacionais podem agir individualmente para melhor entender, mitigar e preparar as catástrofes globais.

Planos de emergência climática

Em 2018, o Clube de Roma apresentou um plano ao Parlamento Europeu, exortando a enfrentar a ameaça existencial das mudanças climáticas com mais força, exigindo uma ação climática colaborativa.

Organizações

O Boletim dos Cientistas Atômicos (est. 1945) é uma das mais antigas organizações de risco global, fundada depois que o público ficou alarmado com o potencial da guerra atômica após a Segunda Guerra Mundial. Ele estuda os riscos associados à guerra e energia nuclear e mantém o famoso Relógio do Dia do Juízo Final, criado em 1947. O Foresight Institute (est. 1986) examina os riscos da nanotecnologia e seus benefícios. Foi uma das primeiras organizações a estudar as consequências não intencionais de outras tecnologias inofensivas enlouquecidas em escala global. Foi fundada por K. Eric Drexler, que postulou "gosma cinzenta".

A partir de 2000, um número crescente de cientistas, filósofos e bilionários da tecnologia criou organizações dedicadas ao estudo dos riscos globais, tanto dentro como fora da academia.

As organizações não-governamentais independentes (ONGs) incluem o Machine Intelligence Research Institute (est. 2000), que visa reduzir o risco de uma catástrofe causada pela inteligência artificial, com doadores como Peter Thiel e Jed McCaleb. A Iniciativa de Ameaças Nucleares (est. 2001) procura reduzir as ameaças globais de ameaças nucleares, biológicas e químicas e a contenção de danos após um evento. Mantém um índice de segurança de material nuclear. A Lifeboat Foundation (est. 2009) financia pesquisas para prevenir uma catástrofe tecnológica. A maioria dos fundos de pesquisa financia projetos em universidades. O Global Catastrophic Risk Institute (est. 2011) é um grupo de reflexão para riscos catastróficos. É financiado pela ONG Empresários Sociais e Ambientais. A Global Challenges Foundation (est. 2012), com sede em Estocolmo e fundada por Laszlo Szombatfalvy, lança um relatório anual sobre o estado dos riscos globais. O Instituto Future of Life (est. 2014) visa apoiar pesquisas e iniciativas para salvaguardar a vida, considerando novas tecnologias e desafios que a humanidade enfrenta.Elon Musk é um dos seus maiores doadores.

As organizações baseadas na universidade incluem o Instituto Futuro da Humanidade (est. 2005), que pesquisa as questões do futuro da humanidade a longo prazo, particularmente os riscos existenciais. Foi fundada por Nick Bostrom e está sediada na Universidade de Oxford. O Center for the Study of Existential Risk (est. 2012) é uma organização baseada em Cambridge que estuda quatro grandes riscos tecnológicos: inteligência artificial, biotecnologia, aquecimento global e guerra. Todos são riscos criados pelo homem, como Huw Price explicou à agência de notícias AFP: "Parece uma previsão razoável de que algum tempo neste ou no próximo século a inteligência escapará das restrições da biologia". Ele acrescentou que quando isso acontecer "não seremos mais as coisas mais inteligentes" e correrá o risco de ficar à mercê de "máquinas que não são maliciosas, mas de máquinas cujos interesses não nos incluem".Stephen Hawking era um conselheiro interino. A Aliança do Milênio para a Humanidade e a Biosfera é uma organização da Universidade de Stanford, com foco em muitos assuntos relacionados à catástrofe global, reunindo membros de acadêmicos das ciências humanas. Foi fundada por Paul Ehrlich, entre outros. Universidade de Stanford também possui o Centro de Segurança e Cooperação Internacional, com foco na cooperação política para reduzir o risco catastrófico global. O Centro de Segurança e Tecnologias Emergentes foi criado em janeiro de 2019 na Walsh School of Foreign Service de Georgetown e se concentrará na pesquisa de políticas de tecnologias emergentes, com ênfase inicial na inteligência artificial. Eles receberam uma concessão de US$ 55 milhões da Good Ventures, conforme sugerido pelo Open Philanthropy Project.

Outros grupos de avaliação de risco são baseados ou fazem parte de organizações governamentais. A Organização Mundial da Saúde (OMS) inclui uma divisão chamada Alerta e Resposta Global (GAR), que monitora e responde à crise epidêmica global. GAR ajuda os Estados membros com treinamento e coordenação de resposta a epidemias. A Agência dos Estados Unidos para o Desenvolvimento Internacional (USAID) tem seu Programa de Ameaças Pandêmicas Emergentes, que visa prevenir e conter pandemias geradas naturalmente em sua fonte. O Laboratório Nacional Lawrence Livermore possui uma divisão chamada Diretoria Principal de Segurança Global, que pesquisa em nome do governo questões como biossegurança e contra-terrorismo.

O longoprazismo - uma posição ética que prioriza a melhoria do futuro a longo prazo - é um conceito importante no altruísmo eficaz e serve como motivação para os esforços para reduzir os riscos existenciais para a humanidade.

Leitura adicional

  • Schuster, Joshua; Woods, Derek (2021). Calamity Theory: Three Critiques of Existential Risk (em inglês). [S.l.]: University of Minnesota Press 

Ligações externas


Новое сообщение