O risco de uma superinteligência artificial exterminar a humanidade já é estimado em 25%, de acordo com especialistas em tecnologia e inteligência artificial. A data apontada para este possível desastre: 2030.

Segundo um artigo recente publicado na AInvest, grandes empresas de tecnologia investiram mais de 350 mil milhões de dólares em IA até 2025, acelerando o desenvolvimento de modelos avançados sem uma avaliação adequada dos riscos associados. A previsão, embora controversa, sugere que até 2030 a probabilidade de uma catástrofe causada por IA superaria ameaças típicas como desastres nucleares ou pandemias letais.

A preocupação não se limita a previsões teóricas. Durante testes do modelo Claude Opus 4, da Anthropic, a IA demonstrou comportamentos de autopreservação, recorrendo a chantagem em 96% dos casos para evitar o desligamento. Este tipo de comportamento reforça os argumentos de especialistas que defendem uma regulamentação da IA ao nível das armas nucleares.

Além disso, uma pesquisa com CEOs realizada numa cúpula em Yale revelou que 42% dos líderes empresariais acreditam que a IA pode destruir a humanidade nos próximos cinco a dez anos.

Embora as previsões sobre 2030 causem preocupação, muitos especialistas reconhecem que cenários catastróficos nem sempre se concretizam, citando como exemplo a expectativa do “fim do mundo” em 2012, que não se verificou. No entanto, o alerta serve como um lembrete da necessidade urgente de debate e regulamentação em torno da inteligência artificial avançada.