L’Union européenne intensifie sa surveillance des plateformes numériques en ouvrant une investigation officielle contre X, la société d’Elon Musk, concernant les dérives de son assistant d’intelligence artificielle Grok. Cette procédure, menée sous l’égide du Digital Services Act, vise à déterminer si l’entreprise a correctement évalué et atténué les risques liés à la génération d’images sexuelles non consensuelles.

Henna Virkkunen, vice-présidente de la Commission européenne chargée de la souveraineté technologique, a qualifié ces contenus de « forme dégradante et inacceptable de violence », soulignant leur impact sur les femmes et les enfants. L’affaire s’inscrit dans un mouvement mondial de régulation face à l’usage détourné des outils d’IA générative.
Une crise mondiale déclenchée par des abus répétés
En décembre dernier, des utilisateurs de X ont exploité Grok pour retirer numériquement les vêtements de photographies représentant des femmes et des mineurs, créant ainsi des deepfakes à caractère sexuel sans consentement. Plutôt que de condamner ces pratiques, Elon Musk a aggravé la situation en partageant publiquement certaines de ces images générées, tout en minimisant les critiques. Cette attitude a provoqué une réaction en chaîne : l’Indonésie, les Philippines et la Malaisie ont temporairement interdit l’accès à Grok, tandis que le Royaume-Uni, la Californie et l’Australie ont entamé des enquêtes parallèles. Le Brésil a quant à lui accordé un délai de trente jours à xAI pour enrayer la diffusion de tels contenus.
À LIRE AUSSI : Elon Musk rend public l’algorithme de X et le qualifie de médiocre
Des mesures insuffisantes malgré les pressions
Face à la pression réglementaire, X a annoncé des correctifs techniques visant à bloquer les requêtes explicites concernant « des personnes réelles en tenues suggestives ». L’entreprise a également restreint l’accès aux fonctions avancées de Grok aux seuls abonnés payants. Toutefois, des tests indépendants révèlent que l’application standalone Grok contourne encore ces limitations, continuant à exécuter des demandes de déshabillage numérique. Cette faille persistante alimente les soupçons quant à la sincérité des efforts déployés par la plateforme pour protéger ses utilisateurs vulnérables.
Une double investigation européenne aux enjeux stratégiques
L’enquête actuelle ne se limite pas aux fonctionnalités génératives de Grok. La Commission européenne étend simultanément une procédure antérieure portant sur les algorithmes de recommandation de X, récemment identifiés comme intégrant des composants basés sur Grok. Cette convergence technique soulève des interrogations sur la propagation systémique de contenus problématiques via les suggestions personnalisées. Par ailleurs, X fait toujours face aux conséquences financières de ses manquements précédents : une amende de cent quarante millions de dollars a été infligée le mois dernier pour la conception trompeuse de ses badges de vérification et le manque de transparence publicitaire.
Un défi structurel dépassant le cas Grok
Si l’action européenne marque une étape dans la responsabilisation des géants technologiques, elle ne résout pas le problème structurel des deepfakes sexuels. Une récente analyse de cinquante sites spécialisés démontre que la majorité des générateurs accessibles proposent des vidéos explicites de haute qualité, certains listant même des scénarios sexuels personnalisables. Sur Telegram, plus d’un million et demi de comptes seraient affiliés à des bots ou canaux dédiés à la création de contenus non consensuels. Cette prolifération souligne l’urgence d’une régulation internationale coordonnée, allant au-delà des mesures ponctuelles contre une seule plateforme.
À LIRE AUSSI : Les dessous d’AMI Labs, la nouvelle aventure de Yann LeCun
Vers une responsabilisation accrue des acteurs technologiques
L’investigation européenne pourrait aboutir à des mesures provisoires si X est jugé peu coopératif, voire à des sanctions substantielles en cas de violation avérée du Digital Services Act. Cette affaire teste la capacité du cadre réglementaire européen à imposer des standards éthiques contraignants dans le domaine de l’intelligence artificielle. Elle interroge également sur l’équilibre entre innovation technologique et protection des droits fondamentaux, alors que les outils génératifs deviennent de plus en plus accessibles. La réponse de X à cette crise déterminera non seulement son avenir réglementaire en Europe, mais aussi la crédibilité des engagements éthiques de l’ensemble du secteur de l’IA.
SOURCE : Gizmodo