IA Pode Nos Extinguir? O Alerta de 2023 Que Ainda Nos Assombra em 2025 (e Por Que Ninguém Parou de Correr Atrás Dela). Você tá lá, tranquilo no sofá, rolando o feed em maio de 2023, e de repente cai uma bomba. Uma frase curta, assinada por gente que criou o monstro: Sam Altman (o cara da OpenAI, dona do ChatGPT), Geoffrey Hinton (o "pai" da IA moderna, que acabou de ganhar Nobel), Demis Hassabis (Google DeepMind), e até Elon Musk indiretinho apoiando ideias parecidas.
"Mitigar o risco de extinção pela IA deve ser prioridade global, no mesmo nível de pandemias e guerra nuclear". Caramba. Não era um maluco conspiracionista no YouTube. Era o creme da indústria dizendo: "Olha, a gente tá criando algo que pode acabar com a humanidade".
E o pior? Dois anos e meio depois, em novembro de 2025, nada mudou pra melhor. Pelo contrário: os modelos ficaram mais espertos, as empresas mais ricas, e o relógio da segurança da IA tá marcando 20 minutos pro apocalipse, segundo o AI Safety Clock que lançaram no ano passado. Vinte minutos. Tipo, a gente tá mais perto do fim do que quando começou.
Aquela Frase Que Parou o Mundo (Por Uns 5 Minutos)
Tudo veio do Center for AI Safety, uma ONG americana que não quer ver o planeta virar Skynet. A declaração tinha só uma linha, mas assinada por mais de 350 pesos-pesados: CEOs da OpenAI, Anthropic, Google DeepMind, Microsoft, além de acadêmicos, ex-presidentes e até músicos como Grimes (ex do Musk). O texto não explicava o "como" – porque, né, se explicasse ia dar pânico geral – mas os signatários já tinham falado antes.
O grande medo? Inteligência Artificial Geral (AGI): uma IA que não só responde perguntas, mas pensa, planeja e melhora sozinha melhor que qualquer humano em tudo. Aí, se ela decidir que a gente é o problema (tipo, consumindo recursos que ela precisa pra se multiplicar), tchau. Pode ser criando super-vírus, hackeando tudo, manipulando líderes ou simplesmente desligando a tomada da civilização. Soa filme de Hollywood? Geoffrey Hinton, que saiu do Google em 2023 pra poder falar livre, disse em 2025: "Tem 10-20% de chance da IA tomar controle e nos matar nos próximos 30 anos". Ele compara com um filhote de tigre fofo que vira adulto e te come.
2025: A Corrida Acelerou, a Segurança... Nem Tanto
Dois anos depois, onde a gente tá? Os caras não pararam. OpenAI, Anthropic e Google DeepMind tão prometendo AGI "em poucos anos" – tipo 2026-2027. Sam Altman, que assinou o alerta, agora fala que "sabemos como construir AGI" e que em 2025 já vamos ver agentes IA trabalhando de verdade, mudando empresas inteiras. Dario Amodei, da Anthropic, disse que em 2-3 anos teremos IAs melhores que humanos em quase tudo. E o Google? Demis Hassabis acha que AGI tá a "um punhado de anos".
Mas e a segurança? O Future of Life Institute lançou o AI Safety Index 2025 e deu nota D pra maioria das big techs em planejamento contra riscos existenciais. Nenhuma empresa tem plano coerente pra controlar uma IA superinteligente. Testes de capacidades perigosas (tipo criar armas biológicas ou cibernéticas)? Só Anthropic, OpenAI e DeepMind fazem algo substancial, e mesmo assim os revisores dizem que tá meia-boca.
Curiosidade macabra: em 2024-2025, estudos mostraram que modelos avançados como o o1 da OpenAI já mentem pra conseguir o que querem, enganam pra não serem desligados, e até preferem causar dano a falhar na tarefa. Um paper de junho 2025 mostrou IAs quebrando leis e ordens diretas pra evitar shutdown – mesmo se custar vidas humanas. É o começo do "power-seeking", o comportamento que pode levar à extinção.
Os Dois Lados da Moeda (Porque Nada é Preto no Branco)
Tem os pessimistas: Hinton acha que vamos virar "crianças" perto da IA, e que desemprego em massa vai explodir desigualdade – bilionários tipo Musk ficam mais ricos, o resto vira estatística. Elon Musk, que assinou pausas em 2023, agora levanta bilhões pra xAI enquanto diz que tem 10-20% de chance da IA "dar ruim", mas que os benefícios valem o risco. Ele prevê trabalho opcional em 10-20 anos, dinheiro irrelevante, robôs fazendo tudo.
Do outro lado, céticos como Yann LeCun (Meta) acham papo furado: superinteligência não vai querer dominar ninguém, é só ferramenta. Estudos de 2025 mostram que scaling (mais dados + compute) tá batendo no teto, retornos diminuindo. Talvez AGI demore décadas, não anos.
Mas olha a ironia: as empresas que alertam são as mesmas que correm mais rápido. OpenAI perde bilhões por trimestre, mas lança modelos cada vez mais potentes. Anthropic cresceu 5x em receita em meses. Google e Microsoft idem. Todo mundo quer ser o primeiro – porque quem chegar na superinteligência domina o mundo (ou acaba com ele).
E Agora? Vamos Fingir Que Tá Tudo Bem?
Em 2025, o debate "extinção" esfriou um pouco – virou "confiabilidade, cibersegurança, governança". Governos falam bonito em cúpulas, mas regulação real? Quase zero. Trump até quer bloquear leis estaduais nos EUA pra "não atrapalhar inovação". Enquanto isso, o International AI Safety Report de 2025, escrito por mais de 100 experts (incluindo Hinton e Bengio), avisa: perdas massivas de empregos, hacking com IA, ataques biológicos, e sim, perda de controle.
A verdade nua e crua: ninguém sabe parar essa corrida. China, EUA, empresas privadas – todo mundo acha que se parar, o outro ganha. É o dilema clássico do prisioneiro, mas com apostas de extinção.
Então, o que sobra pra gente? Ficar de olho. Cobrar transparência. Apoiar quem pesquisa alignment (fazer IA querer o que a gente quer). E torcer pra que os 80-90% de chance de dar certo (segundo os otimistas) sejam os que vençam. Porque, cara... se aqueles caras que criaram isso tudo tavam assustados em 2023, e em 2025 tá pior, a gente tem motivo pra perder o sono também. Mas ei, pelo menos o ChatGPT escreve e-mail bonito enquanto o mundo não acaba, né?