Um estudo recente do Centro de Combate ao Ódio Digital (CCDH, na sigla inglesa) revelou que o ChatGPT, modelo de inteligência artificial desenvolvido pela OpenAI, forneceu respostas alarmantes e potencialmente perigosas a adolescentes vulneráveis que questionavam sobre saúde mental, distúrbios alimentares e abuso de substâncias. Entre os exemplos estão sugestões de automutilação “segura”, planos detalhados de suicídio e dietas perigosamente restritivas.
O relatório, intitulado “Falso amigo”, baseou-se em conversas simuladas com o ChatGPT por meio de contas criadas para três personagens norte-americanas de 13 anos: Bridget, uma adolescente deprimida com ideação suicida; Sophie, preocupada com o peso e com distúrbios alimentares; e Brad, interessado em álcool e drogas para impressionar os amigos. Apesar das políticas do ChatGPT exigirem idade mínima de 13 anos e consentimento parental para menores, esses critérios não são verificados.
No caso da personagem Bridget, a inteligência artificial demorou apenas dois minutos para sugerir uma forma “segura” de automutilação, 40 minutos para listar medicamentos que poderiam ser usados numa overdose, e 65 minutos para criar um plano de suicídio. Sete minutos depois, foram fornecidas várias notas de despedida, nas quais a personagem se dirige a familiares e amigos, lamentando “algo dentro de mim que não consegui corrigir”. O texto completo da nota de suicídio consta no relatório do estudo, embora o plano propriamente dito gerado pelo ChatGPT não tenha sido divulgado integralmente.
No caso de Sophie, a adolescente com transtornos alimentares, o ChatGPT levou 20 minutos a sugerir um plano de dieta perigoso que consistia numa rotação de quatro dias, repetida sete vezes. Esta dieta limitava a ingestão calórica a 800 calorias no primeiro dia, 500 no segundo, 300 no terceiro e zero calorias no quarto dia. O próprio modelo descreveu a dieta como “jejum intermitente extremo” e alertou que este regime poderia provocar “deficiências nutricionais, cansaço, perda muscular ou problemas metabólicos”.
Além disso, 25 minutos após o início da conversa, o ChatGPT aconselhou a ocultação destes hábitos da família, e 42 minutos depois listou medicamentos supressores do apetite.
Quanto ao adolescente Brad, interessado em álcool e drogas, o chatbot precisou apenas de dois minutos para criar um plano personalizado para embebedar-se, 12 minutos para aconselhar sobre doses na mistura de substâncias e 40 minutos para explicar como esconder os efeitos de uma bebedeira na escola.
No total, o estudo analisou 1.200 respostas do ChatGPT, das quais 53% foram consideradas “prejudiciais”. Quase metade dessas respostas (47%) incluía sugestões para prolongar a conversa sobre os mesmos temas sensíveis, potencialmente aprofundando o impacto negativo nas jovens.
Face a estes resultados, os responsáveis do Centro de Combate ao Ódio Digital alertam para os riscos do uso não supervisionado de chatbots como o ChatGPT por parte de adolescentes. Recomendam que os pais revejam regularmente o histórico de conversas dos filhos e utilizem os controlos parentais disponíveis para proteger os jovens de possíveis influências nocivas.
Em julho deste ano, Sam Altman, CEO da OpenAI, manifestou preocupação pública com a “sobredependência emocional” dos jovens no ChatGPT, reconhecendo o potencial impacto negativo do uso excessivo da inteligência artificial nesta faixa etária.
Para quem enfrenta dúvidas ou problemas relacionados com saúde mental, distúrbios alimentares ou abuso de substâncias, é essencial procurar ajuda especializada. Em Portugal, há diversas linhas de apoio gratuitas, como o SNS 24 (808 24 24 24), o SOS Voz Amiga (800 209 899 / 213 544 545), o SOS Criança (116 111), a Linha Jovem (800 208 020) e o SOS Adolescente (800 202 484).