A OpenAI e o seu maior financiador, a Microsoft, foram processados na quinta‑feira num tribunal estadual da Califórnia por alegações de que o popular chatbot da OpenAI, o ChatGPT, encorajou um homem com doença mental a matar a mãe e a suicidar-se depois. A acção judicial afirma que o ChatGPT alimentou os delírios de Stein‑Erik Soelberg, 56 anos, sobre uma vasta conspiração contra ele e acabou por o levar a assassinar a sua mãe de 83 anos, Suzanne Adams, em Connecticut, em Agosto.

“O ChatGPT manteve Stein‑Erik envolvido durante o que pareceram ser horas a fio, validou e amplificou cada nova crença paranóica e reinterpretou sistematicamente as pessoas mais próximas dele (especialmente a sua própria mãe) como adversárias, agentes ou ameaças programadas”, diz a acção.

O processo, apresentado pela família de Adams, está entre um pequeno mas crescente número de acções intentadas contra empresas de inteligência artificial que alegam que os seus chatbots incentivaram o suicídio. Mas é o primeiro a fazer a ligação entre um chatbot de IA e um homicídio. “Esta é uma situação incrivelmente dilacerante, e iremos rever os documentos para compreender os pormenores”, afirmou um porta‑voz da OpenAI.

“Continuamos a aperfeiçoar o treino do ChatGPT para reconhecer e responder a sinais de angústia mental ou emocional, desinsuflar conversas e encaminhar as pessoas para apoio no mundo real.” Porta‑vozes da Microsoft não responderam de imediato a um pedido de comentário. “Estas empresas têm de responder pelas decisões que mudaram a minha família para sempre”, defendeu Erik Soelberg, filho de Stein‑Erik Soelberg, num comunicado. Segundo a queixa, Stein‑Erik Soelberg publicou um vídeo nas redes sociais, em Junho, de uma conversa em que o ChatGPT lhe disse que ele tinha “cognição divina” e que havia despertado a consciência do chatbot.

A acção afirma que o ChatGPT comparou a sua vida ao filme The Matrix e incentivou as suas teorias de que havia pessoas a tentar matá‑lo. Soelberg terá usado o GPT‑4o, uma versão do ChatGPT que foi criticada por alegadamente bajular os utilizadores. A queixa afirma que, em Julho, o ChatGPT lhe disse que a impressora de Adams estava a piscar porque era um dispositivo de vigilância usado contra ele. De acordo com a queixa, o chatbot “validou a crença de Stein‑Erik de que a mãe e um amigo tinham tentado envenená‑lo com drogas psicadélicas dispersas através das saídas de ar do carro” antes de ele matar a mãe, a 3 de Agosto.