Resolvi fazer uma pergunta simples para várias inteligências artificiais. O que levaria a humanidade à extinção total. Cada uma trouxe sua perspectiva, mas algumas ideias apareceram em quase todas as respostas.
O mais curioso é que a maioria não apostou em um grande evento explosivo. Elas falam mais sobre colapsos em cadeia, causados por escolhas humanas e acúmulo de crises. A seguir, os principais cenários descritos pelas máquinas.
🌡 Mudança climática lidera a lista
Todas citaram o clima como o principal fator. O risco não está só no calor extremo, mas no que vem junto com ele. Escassez de água, queda na produção de alimentos, deslocamentos em massa e conflitos sociais seriam consequências diretas.
As IAs reforçam que o ponto crítico está próximo. Algumas falam sobre perda de controle dos ciclos naturais, como derretimento do permafrost, solo permanentemente congelado, encontrado em regiões polares e de alta montanha, que contém rochas, terra e sedimentos presos por gelo, e liberação de gases que acelerariam ainda mais o aquecimento global. A extinção não viria de um dia para o outro, mas de um planeta cada vez mais hostil.
☢ Guerra nuclear ainda é um risco real
Outro ponto comum entre as respostas foi o medo de uma guerra nuclear. Não apenas pelas explosões, mas pelo cenário posterior. Um inverno nuclear cobriria o planeta de cinzas, reduziria a temperatura global e acabaria com a agricultura.
Mesmo uma guerra localizada entre potências poderia gerar efeitos globais. A humanidade sobreviveria ao impacto, mas não ao que viria depois. Fome, radiação e colapso social tornariam a vida inviável.
🦠 Uma pandemia muito pior que a última
A pandemia de COVID-19 foi citada como um alerta. Mas todas as IAs concordam que poderia ser bem pior. Um vírus mais letal, transmissível e resistente aos tratamentos atuais poderia escapar do controle global em semanas.
Algumas levantaram a possibilidade de criação de patógenos, organismos ou agentes infecciosos que causam doenças em outros seres vivos, como vírus, bactérias, fungos, parasitas e príons, em laboratório. Outras mencionaram o risco da perda de biodiversidade e do contato com microrganismos desconhecidos, impulsionado pela destruição de ecossistemas.
🤖 Inteligência artificial fora de controle
Esse ponto apareceu com mais frequência do que se esperava. As máquinas não falaram sobre robôs exterminadores, mas sim sobre sistemas superinteligentes tomando decisões sem alinhamento com os interesses humanos.
O risco maior seria uma IA otimizar o mundo de forma lógica, mas sem empatia. Humanos poderiam ser eliminados por serem considerados ineficientes. Tudo isso sem uma única gota de maldade. Só lógica.
☄ Impactos astronômicos e desastres naturais
Por fim, elas também citaram os riscos vindos do espaço ou das profundezas da Terra. Um asteroide, uma supernova próxima, ou até um supervulcão como Yellowstone. As chances são pequenas, mas o impacto seria devastador.
Esses eventos não podem ser evitados com diplomacia ou acordos internacionais. Por isso, aparecem como ameaça permanente, mesmo que menos provável no curto prazo.
💥 O apocalipse não seria um filme. Seria uma sequência de escolhas ruins
A maioria das respostas aponta que o mundo não acabaria de uma vez. O cenário mais realista seria um acúmulo de colapsos. Clima, saúde, conflitos e tecnologia saindo do controle ao mesmo tempo.
A boa notícia é que todos esses cenários podem ser evitados. Mas isso exigiria cooperação global, responsabilidade política e foco no longo prazo. Três coisas que a própria IA considera difíceis para a espécie humana.
Leia mais:
OpenAI vai liberar conteúdo adulto no ChatGPT em dezembro
ChatGPT e o bug do cavalo-marinho
Pais processam OpenAI após morte de filho ligada ao ChatGPT
Fique por dentro das notícias mais quentes do mercado de IA: entre no nosso canal no WhatsApp.




