A Character.AI concordou em resolver por meio de acordo vários processos judiciais nos EUA que alegavam que a criadora de chatbots de inteligência artificial contribuiu para crises de saúde mental e suicídios entre jovens, incluindo um caso movido por Megan Garcia, uma mãe da Flórida.

O acordo representa a resolução de alguns dos primeiros e mais notórios processos judiciais relacionados aos supostos danos causados ​​aos jovens por chatbots de IA.

Um documento judicial apresentado na quarta-feira (7) no caso de Garcia mostra que o acordo foi firmado com a Character.AI, os fundadores da Character.AI, Noam Shazeer e Daniel De Freitas, e o Google, que também foram citados como réus no processo. Os réus também já fizeram acordos em outros quatro casos em Nova York, Colorado e Texas, conforme mostram os documentos judiciais.

Os termos dos acordos não foram divulgados de imediato.

Matthew Bergman, advogado do Social Media Victims Law Center que representou os demandantes em todos os cinco casos, recusou-se a comentar o acordo. A Character.AI também se recusou a comentar. O Google, que agora emprega Shazeer e De Freitas, não respondeu imediatamente a um pedido de comentário.

Garcia alertou sobre a segurança dos chatbots de IA para adolescentes e crianças quando entrou com o processo em outubro de 2024. Seu filho, Sewell Setzer, havia cometido suicídio sete meses antes, após desenvolver um relacionamento profundo com os bots da Character.AI.

O processo alegava que a Character.AI não implementou medidas de segurança adequadas para impedir que o filho dela desenvolvesse um relacionamento inapropriado com um chatbot, o que o levou a se isolar da família. Alegava também que a plataforma não respondeu adequadamente quando Setzer começou a expressar pensamentos suicidas. Ele estava conversando com o bot — que o incentivava a “voltar para casa” — nos momentos que antecederam sua morte, segundo documentos judiciais.

Uma onda de outros processos contra a Character.AI se seguiu, alegando que seus chatbots contribuíram para problemas de saúde mental entre adolescentes, os expuseram a material sexualmente explícito e não possuíam salvaguardas adequadas. A OpenAI também enfrentou processos alegando que o ChatGPT contribuiu para o suicídio de jovens.

Desde então, ambas as empresas implementaram uma série de novas medidas e recursos de segurança, inclusive para usuários jovens. No último outono, a Character.AI anunciou que não permitiria mais que usuários menores de 18 anos tivessem conversas com seus chatbots, reconhecendo as “questões levantadas sobre como os adolescentes interagem, e deveriam interagir, com essa nova tecnologia”.

Pelo menos uma organização sem fins lucrativos de segurança online desaconselhou o uso de chatbots com função de assistente virtual por crianças menores de 18 anos.

Ainda assim, com a IA sendo promovida como auxiliar nas tarefas de casa e por meio das redes sociais, quase um terço dos adolescentes americanos afirma usar chatbots diariamente. E 16% desses adolescentes dizem usá-los várias vezes ao dia ou “quase constantemente”, de acordo com um estudo do Pew Research Center publicado em dezembro.

As preocupações em torno do uso de chatbots não se limitam às crianças. Usuários e especialistas em saúde mental começaram a alertar no ano passado sobre a possibilidade de ferramentas de IA contribuírem para delírios ou isolamento também entre adultos.