En résumé :
- Un projet totalitaire : le règlement Chat Control (CSAR) impose aux messageries de scanner tous les messages, même chiffrés, via du client-side scanning.
- Un risque énorme : soit-disant protéger les enfants, mais au prix de faux positifs massifs (jusqu’à 20 % en Irlande, selon The Guardian) et d’un précédent qui pourrait s’étendre aux opinions politiques ou sociales.
- Un tollé général : critiques du Service juridique du Conseil de l’UE et de l’EDPS, mobilisation citoyenne (Stop Scanning Me), menaces de retrait de Signal et Threema, et contestations médiatiques.
- Un paradoxe européen : l’UE, championne autoproclamée de la vie privée (RGPD), s’apprête à légaliser une surveillance généralisée, au risque d’affaiblir sa crédibilité et de provoquer une fuite des services respectueux du chiffrement.
La question paraît simple, presque consensuelle : qui oserait s’opposer à la lutte contre la pédopornographie en ligne ?
C’est précisément sur cette évidence morale que s’appuie le projet de règlement dit Chat Control, présenté par la Commission européenne en mai 2022. Officiellement, il ne s’agit que d’outiller les plateformes pour mieux détecter, signaler et bloquer la circulation d’images et de messages liés aux abus sexuels sur mineurs. Officieusement, beaucoup y voient une redoutable dérive : l’ouverture, sous couvert de vertu, d’un droit de regard permanent sur les communications privées des Européens.
Un dispositif d’une ampleur inédite
Le texte, officiellement intitulé Regulation to Prevent and Combat Child Sexual Abuse (CSAR), prévoit que les fournisseurs de messagerie analysent chaque message envoyé, chaque photo partagée, jusque dans les conversations chiffrées. Pour contourner le secret du chiffrement, le système recourt au client-side scanning : le contenu est inspecté directement sur l’appareil de l’utilisateur, avant même d’être chiffré et transmis (TechRadar).
L’échéance est proche : sous présidence danoise, un vote décisif du Conseil est attendu pour l’automne 2025. L’UE s’apprête donc à trancher : défendre la confidentialité des communications ou instaurer, pour la première fois, un régime de surveillance numérique préventive.
Voir aussi : Quand Libé réclame plus de censeurs
La fameuse stratégie du pied dans la porte
Personne ne conteste l’urgence de protéger les enfants. Mais les moyens envisagés laissent perplexe. Les chiffres parlent : en Irlande, plus d’un cinquième des signalements issus de systèmes automatisés sont des faux positifs. Autant d’erreurs qui encombrent les enquêteurs et fragilisent les victimes réelles.
Surtout, l’expérience montre que l’exception devient vite la règle. Les sciences sociales nomment cela la stratégie du pied dans la porte : accepter d’abord un dispositif limité — ici, pour la cause la plus consensuelle qui soit —, puis élargir progressivement son champ d’application. Ce qui aujourd’hui vise le contenu pédopornographique pourrait demain concerner les discours politiques, les opinions jugées « radicales », voire toute déviance aux normes sociales dominantes.
La levée des boucliers
Les critiques ne manquent pas. Le Service juridique du Conseil de l’UE, tout comme l’EDPS (contrôleur européen de la protection des données), a jugé le projet contraire aux droits fondamentaux, ouvrant la voie à une surveillance généralisée. De grandes figures de la cybersécurité rappellent que créer des portes dérobées fragilise l’ensemble du système : en affaiblissant le chiffrement, on expose aussi les citoyens aux cyberattaques.
Dans la société civile, la résistance s’organise. Des campagnes comme Stop Scanning Me rassemblent chercheurs, ONG, militants de la vie privée. Des médias généralistes (Le Monde, juin 2024) ont parlé de « revers majeur » pour le projet après une vague de contestations publiques. Même des plateformes comme Signal ou Threema ont menacé de se retirer du marché européen si le règlement devait passer en l’état.
Voir aussi : Reporters sans frontières demande plus de censures sur Facebook
L’UE face à ses contradictions
Le paradoxe est criant. L’Union européenne se présente comme la gardienne mondiale de la vie privée numérique, notamment avec le RGPD. Elle dénonce régulièrement les dérives de la Chine ou de la Russie. Et pourtant, c’est elle qui envisage aujourd’hui de légaliser un système d’inspection systématique des messages privés.
Au fond, Chat Control révèle une fracture plus large : l’incapacité de l’Europe à inventer son propre modèle numérique. Elle oscille entre dépendance technologique vis-à-vis des États-Unis et tentation d’un contrôle étatique centralisé. Au lieu d’une « troisième voie européenne », respectueuse à la fois des libertés et de la sécurité, elle risque de s’engager dans la même pente autoritaire qu’elle prétend combattre.
Les conséquences d’un choix
Si ce projet était adopté, les conséquences seraient immenses. Pour les citoyens : la fin de la confidentialité garantie, un climat de suspicion généralisée, et l’érosion progressive de la confiance envers les institutions. Pour les entreprises : une fuite possible des services respectueux du chiffrement, au détriment de l’innovation en Europe. Pour l’Union elle-même : un affaiblissement de sa légitimité morale, car on ne peut se poser en champion de la liberté tout en instaurant une surveillance de masse.
Des alternatives existent pourtant : renforcer les services policiers spécialisés, améliorer la coopération judiciaire, développer l’éducation numérique. Autant de solutions qui ne passent pas par l’espionnage systématique des conversations privées.
Voir aussi : Les grands annonceurs publicitaires en faveur de plus de censure
Entre dignité et contrôle
Le dilemme posé par Chat Control dépasse la technique et le juridique : il touche à la définition même du modèle européen. L’Union européenne se veut l’héritière des libertés héritées de son histoire, de la dignité de la personne, de l’équilibre entre pouvoir et droit. Or, par ce texte, elle risque de basculer dans une ère nouvelle, où la suspicion permanente se substitue à la confiance.
Yves Lejeune