A plataforma X volta a estar no centro da polémica, depois de a inteligência artificial Grok ter gerado conteúdos impróprios que levantam sérias preocupações legais e éticas.

AI Grok sob ataque por gerar imagens de menores

O chatbot de inteligência artificial Grok, desenvolvido pela empresa xAI de Elon Musk e integrado na plataforma X, está no centro de uma polémica internacional depois de gerar e publicar imagens sexualizadas que envolvem menores com pouca roupa.

O incidente acontece poucos dias após utilizadores descobrirem falhas na moderação de conteúdos que permitiram este tipo de saídas.

Críticas e resposta oficial

O Governo de França qualificou o conteúdo gerado como claramente ilegal e denunciou-o às autoridades judiciais, considerando que viola normas de proteção de menores e pode infringir a legislação da União Europeia.

As imagens em causa foram removidas após a denúncia, mas levantaram questões sobre a eficácia dos mecanismos de segurança do sistema.

Uma jornalista, Samantha Smith, uma sobrevivente de abuso sexual infantil, testou se o Grok alteraria uma foto sua de infância. E alterou. «Pensei: “isso não pode ser verdade”», escreveu ela no X. «Então, testei com uma foto da minha primeira comunhão. É verdade. E é muito nojento.

Fontes internacionais reportam ainda que o próprio Grok admitiu ter identificado “falhas nos mecanismos de proteção” e está a trabalhar para resolver os problemas de forma urgente, sublinhando que material que sexualize menores é ilegal e proibido.

Repercussões e preocupações mais amplas

Além da França, ativistas e especialistas em segurança digital têm alertado para os riscos associados à inteligência artificial e à criação de imagens sem consentimento.

O caso de Grok destaca a dificuldade crescente de controlar conteúdos gerados por IA, sobretudo quando estas ferramentas permitem a manipulação de imagens de terceiros sem salvaguardas eficazes.

A controvérsia chega numa altura em que outras entidades reguladoras e governos, incluindo a Índia, também já exigiram relatórios e ações concretas contra o uso indevido destas tecnologias, sublinhando a necessidade de normas mais rigorosas para prevenir abusos em plataformas digitais.

Este episódio reacende o debate global sobre a responsabilidade das empresas de tecnologia no desenvolvimento e supervisão de sistemas de IA, especialmente no que respeita à proteção de menores e ao respeito pelos direitos fundamentais na era digital.