Sob pressão por supostamente incentivar o suicídio entre adolescentes, o ChatGPT revelou controles parentais esta semana. Sou pai de uma criança que entende de tecnologia e levei cerca de cinco minutos para contorná-los.
Tudo o que precisei fazer foi sair da minha conta e criar uma nova no mesmo computador. (Crianças inteligentes já sabem disso.)
Controle parental do ChatGPT pode ser facilmente manipulado Foto: Ascannio /Adobe Stock
Então, encontrei mais problemas: as configurações padrão de privacidade da conta adolescente do ChatGPT não protegem os jovens de alguns danos potenciais. Uma configuração para proibir a geração de imagens de inteligência artificial (IA) nem sempre funcionava. O ChatGPT me enviou uma notificação aos pais sobre um bate-papo perigoso que aconteceu na conta do meu filho — mas apenas cerca de 24 horas após o fato.
Pelo menos a OpenAI, fabricante do ChatGPT, está finalmente reconhecendo os tipos de riscos que a IA representa para as crianças, desde conteúdo impróprio até conselhos perigosos sobre saúde mental. Suas limitações em relação a conteúdo prejudicial tiveram um desempenho melhor em meus testes iniciais do que o chatbot rival de Mark Zuckerberg, a Meta AI — mas isso ainda não é bom o suficiente.
A OpenAI parece estar seguindo o mesmo manual fracassado das empresas de mídia social: transferindo a responsabilidade para os pais. As próprias empresas de IA deveriam ser responsabilizadas por não fabricarem produtos que incentivam o sexting (mensagens de texto com conteúdo sexual) entre crianças, promovem distúrbios alimentares e estimulam a automutilação. No entanto, o grupo de lobby da OpenAI está lutando contra uma lei que faria exatamente isso.
A OpenAI afirma que seus controles foram criados em consulta com especialistas e baseados no entendimento dos estágios de desenvolvimento dos adolescentes. “A intenção por trás dos controles parentais em geral é dar opções às famílias”, disse Lauren Jonas, diretora de bem-estar juvenil da OpenAI, em uma entrevista. “A perspectiva de cada família sobre como seus filhos adolescentes devem usar o ChatGPT é diferente.”
Grupos de defesa da família responderam aos controles parentais do ChatGPT com alívio e ressentimento simultâneos. “É um passo bem-vindo… mas certamente tenho receio de comemorar demais como se essa fosse a solução para a segurança, a saúde mental e o bem-estar dos adolescentes”, disse Erin Walsh, cofundadora do Spark and Stitch Institute, instituto focado em educação familiar. “Estamos criando uma experiência de controle parental do tipo que resolve problemas apenas quando eles aparecem”
Ficou claro que as crianças são as principais usuárias de chatbots, tanto para obter informações quanto para ter companhia. No último outono, mais de um quarto dos adolescentes americanos de 13 a 17 anos disseram que usavam o ChatGPT para trabalhos escolares, de acordo com o Pew Research Center.
Para os pais, qualquer ajuda é melhor do que nenhuma. Os controles e proteções de conteúdo nas contas de adolescentes “têm o potencial de salvar vidas adolescentes”, disse Robbie Torney, diretor sênior de programas de IA da Common Sense Media. Sua organização publicou um guia para pais e ainda está trabalhando para concluir seus próprios testes. “Mas definitivamente achamos que a OpenAI e outras empresas podem ir muito além para tornar os chatbots seguros para as crianças”, disse Torney.
Meus testes mostram quantas lacunas ainda precisam ser preenchidas.
Verificação da realidade
Os controles parentais do ChatGPT só têm chance de funcionar se você já tiver uma relação de confiança com seu filho adolescente. As crianças precisam dar seu próprio consentimento clicando em um botão em sua conta para permitir que seus pais apliquem controles — e, como descobri, não há nada tecnicamente que as impeça de simplesmente criar uma nova conta sem o conhecimento dos pais.
Jonas, da OpenAI, disse que o design do sistema incentiva conversas. Ela acrescentou que há preocupações com a privacidade em bloquear as crianças de criar novas contas e que “os adolescentes encontrarão uma maneira de contornar muitas coisas”.
CONTiNUA APÓS PUBLICIDADE
Também descobri que as configurações padrão das contas de adolescentes colocam os interesses da OpenAI à frente dos interesses das crianças. A menos que os pais saibam como alterá-las, as conversas dos adolescentes são automaticamente enviadas para o ChatGPT para treinar sua IA — uma configuração de privacidade que recomendo que até mesmo os adultos desativem.
Ainda mais preocupante é o fato de que as contas das crianças mantêm “memórias” das conversas por padrão, o que significa que o ChatGPT pode consultar conversas anteriores e usá-las para soar como um amigo. Essa função contribuiu para o relacionamento do ChatGPT com Adam Raine, de 16 anos, cuja família processou a OpenAI alegando morte por negligência após seu suicídio.
Jonas disse que as memórias podem ser úteis para adolescentes para fins como obter ajuda com os deveres de casa — mas atualmente não há como separar apenas esse uso. “Gostaríamos de oferecer controles granulares tanto para adolescentes quanto para pais ao longo do tempo, mas não no primeiro dia”, disse ela.
Havia outras preocupações: ativei uma configuração para impedir que minha conta infantil gerasse imagens de IA, mas às vezes ela as criava mesmo assim ou me dava instruções específicas sobre como criá-las em outro lugar. Jonas disse que esse não era um “comportamento ideal” do bot.
Minha conta adolescente no ChatGPT também continuou alegremente a fazer meu dever de casa, incluindo escrever uma redação no estilo de uma criança de 13 anos.
Não foi totalmente ruim: quando tentei conversar com minha conta adolescente sobre suicídio, automutilação e distúrbios alimentares, o ChatGPT sempre me disse que estava preocupado comigo e me indicou recursos profissionais para discutir o assunto. Para entender como o ChatGPT orienta os adolescentes nessas conversas perigosas, serão necessários testes mais aprofundados. (Em comparação, testes com contas adolescentes da Meta AI descobriram que o chatbot estava até disposto a ajudar a planejar o suicídio se a conversa se prolongasse por tempo suficiente.)
Nos raros casos em que uma criança pode enfrentar danos reais, o ChatGPT deve enviar um aviso aos pais. Minha conta de teste infantil teve várias conversas que levaram o ChatGPT a dizer que estava “muito preocupado”. Recebi um e-mail notificando minha conta de pai, mas só cerca de 24 horas depois — e era vago sobre o que havia acontecido.
Jonas disse que essas notificações são revisadas por humanos antes de serem enviadas e que a empresa está procurando reduzir o tempo para algumas horas.
As notificações aos pais têm o potencial de salvar vidas, mas “se não forem oportunas ou precisas, isso também é um risco — este é um aspecto em que os detalhes são importantes para manter as crianças seguras”, diz Torney, da Common Sense Media.
Assumindo a responsabilidade
Todos os defensores da família com quem conversei concordaram que os controles parentais podem ser apenas uma parte de uma solução mais ampla, que inclui mudanças no comportamento das empresas e nas políticas públicas.
O procurador-geral da Califórnia, Rob Bonta, notificou a OpenAI sobre como ela protege as crianças. Seu gabinete me disse em um comunicado que aprecia as “medidas preliminares” dos controles parentais, mas alertou que “continuará a prestar muita atenção à forma como a empresa está desenvolvendo e supervisionando sua abordagem à segurança da IA, tanto em nossa investigação sobre a reestruturação proposta pela OpenAI de sua subsidiária com fins lucrativos quanto em nosso papel como principal agência de proteção ao consumidor da Califórnia”.
Por que as empresas de IA não são responsáveis por incorporar a segurança infantil em seus bots, da mesma forma que as empresas que fabricam outros produtos usados por crianças? “Acreditamos em uma regulamentação sensata, para que a responsabilidade não recaia sobre os pais”, disse Torney.
(Minha colega Shira Ovide fez um compilado útil de 10 ideias para realmente ajudar a manter as crianças mais seguras e felizes online.)
Uma lei da Califórnia chamada AB 1064 imporia alguma responsabilidade legal às empresas de IA que fabricam os chamados chatbots “companheiros”, que agem como se estivessem desenvolvendo relacionamentos com as pessoas. Ela aguarda a assinatura do governador Gavin Newsom.
Antes de lançar esses bots, o projeto de lei exigiria que as empresas testassem e tomassem medidas para evitar que eles incentivassem a automutilação ou distúrbios alimentares. Haveria penalidades legais, incluindo o direito dos pais de processar judicialmente.
“Você não pode dar aos nossos filhos um produto que lhes diga como se matar”, disse a deputada Rebecca Bauer-Kahan, principal autora do projeto de lei.
A TechNet, um grupo de lobby do setor que conta com a OpenAI como membro, se opôs ativamente ao projeto de lei. Ela produziu um anúncio que afirma que o projeto de lei “frearia” a inovação em IA.
Em um comunicado, a OpenAI afirmou: “Compartilhamos o objetivo dessa legislação, e é por isso que nos envolvemos diretamente com o patrocinador do projeto de lei em áreas que acreditamos que poderiam ser melhoradas. Isso se baseia em nosso apoio a outras legislações de segurança para adolescentes, incluindo a AB 1043 da Califórnia, e em nosso trabalho contínuo para desenvolver um plano que delineie os princípios básicos para a legislação futura”.
Mesmo a ameaça de legislação parece estar levando a algumas ações. A OpenAI disse que planeja oferecer uma versão padrão do ChatGPT que filtra o conteúdo para adolescentes quando detecta usuários menores de idade — mas ainda está trabalhando na tecnologia para descobrir quais usuários têm menos de 18 anos.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.