Les plateformes et fabricants américains ne se contentent plus d’observer l’Europe réguler le numérique : ils s’y organisent méthodiquement. Budgets en hausse, cabinets spécialisés, think tanks, campagnes d’“éclairage” des décideurs… À l’heure où l’Union européenne parle d’“ajustements” de ses textes phares, une question s’impose : l’UE est-elle en train de passer d’une culture de la règle à celle de l’influence, dans un secteur devenu phare et politique pour sa souveraineté et sa compétitivité ?
A Bruxelles, l’influence devient une fonction critique.
Le secteur du numérique a installé un poste avancé au cœur du triangle Parlement–Commission–Conseil. Les entreprises de la tech y mobilisent des enveloppes record, recrutent des spécialistes aguerris, multiplient les rendez-vous officiels et les contributions “volontaires” à des codes de conduite, tout en tissant des liens avec des associations professionnelles et des laboratoires d’idées.
Cette intensification intervient alors que plusieurs chantiers européens se rouvrent : mise en œuvre du DMA (marchés), du DSA (services), de l’IA Act et de ses lignes directrices, mais aussi lancement d’un “paquet” correctif visant à “simplifier” et “favoriser l’innovation”. Dans ce contexte, les acteurs américains, déjà désignés comme “gatekeepers” par le DMA, cherchent à peser sur les interstices : interprétations, normes d’application, calendriers, seuils, tests de proportionnalité, procédures de résolution de litiges et mécanismes d’auto-évaluation.
Les rendez-vous formels avec cabinets des commissaires, directions générales et eurodéputés se concentrent sur quelques thèmes récurrents : risques de fragmentation, coûts de conformité, accès à la donnée, modèles d’IA à usage général, modération et concurrence. Le message est constant : “préserver l’innovation tout en assurant la conformité”, autrement dit déplacer l’équilibre vers des obligations plus “smart” et moins prescriptives.
Anatomie d’une stratégie d’influence très structurée.
L’essentiel se joue bien avant un vote. Livre blanc, ateliers techniques, consultations publiques, contributions normalisées, “stress tests” réglementaires : l’industrie se met en position d’apporter des matrices d’analyse clés en main.
Quand la puissance publique manque d’ingénierie de détail (benchmarks, jeux de données, évaluation d’impacts), ces documents deviennent des boussoles implicites. Le risque : une capture cognitive où les hypothèses de travail de l’administration reprennent, sans le dire, les catégories conceptuelles des acteurs dominants.
Déplacer la focale vers l’exécution.
La bataille ne consiste plus à réécrire la loi, mais à en arrondir les angles : interprétations, exemptions, délais, formats d’API, métriques de performance, seuils de déclenchement, priorités de contrôle. Dans l’IA, par exemple, les débats autour des modèles à usage général (fondations, responsabilité, “capabilities”) sont très sensibles aux définitions et au calibrage des obligations. Quelques mots dans une ligne directrice peuvent redessiner tout un marché.
Au-delà du registre de transparence, l’influence transite par des associations sectorielles, des consortiums techniques, des standards “de facto” (SDK, frameworks, outils de sécurité), des programmes de recherche, voire des initiatives d’“éthique appliquée”. Le financement d’écosystèmes tiers rend le plaidoyer moins frontal et plus polymorphe, tout en légitimant des positions comme “consensus technique”.
Brider la contrainte par la complexité.
Le message “compliance-by-design” se double d’une réalité : les obligations deviennent si techniques qu’elles deviennent négociables. Les grandes plateformes savent internaliser la complexité (équipes juridiques, ingénierie de conformité, reporting automatisé), là où PME et acteurs européens émergents y voient une barrière à l’entrée. Paradoxalement, des règles pensées pour contraindre les plus puissants peuvent consolider leur avance.
Les codes et meilleures pratiques permettent d’orienter l’implémentation sans rouvrir la loi. Ils offrent des espaces de soft law où l’argument d’expertise prime, où la preuve d’effort (logs, audits, labels) pèse parfois plus que l’effet réel sur les usagers ou la concurrence.
L’argument transatlantique.
Les entreprises insistent sur la nécessité d’alignement avec les États-Unis pour éviter la duplication des coûts et la fragmentation normative. Elles mobilisent la rhétorique de l’“innovation européenne menacée” : trop de contrainte pousserait talents, capitaux et data vers d’autres juridictions. C’est efficace, car l’UE cherche simultanément à réduire sa dépendance technologique… sans ralentir sa croissance.
Le “jeu à somme non nulle” avec les régulateurs.
Contrairement au mythe du bras de fer permanent, beaucoup d’interactions sont coopératives. L’UE a besoin d’un accès aux systèmes, aux métriques, aux pipelines de données ; l’industrie a besoin de sécurité juridique et de prévisibilité. La ligne est fine entre co-construction légitime et dépendance informationnelle.
Que reste-t-il donc de la promesse européenne ?
L’objectif initial du DMA/DSA était clair : rééquilibrer des marchés verrouillés par des effets de réseau massifs et protéger l’espace public numérique. Si l’exécution devient négociée au cas par cas, l’UE risque de retomber dans une logique de “compliance théâtre” : beaucoup de tableaux de bord, peu de transformation réelle. Les remèdes structurels (interopérabilité efficace, portabilité dynamique, accès non discriminatoire) exigent une mise en œuvre musclée et des sanctions crédibles.
Réguler des systèmes algorithmiques évolutifs et des infrastructures planétaires suppose dans le même temps des moyens techniques publics : équipes pluridisciplinaires, bancs d’essai, accès sécurisé aux données, simulation des risques, audits reproductibles, expertise cybersécurité et forensique. Sans cette capacité, la puissance publique arbitre à l’aveugle et s’en remet aux “données de l’opérateur”.
Transparence utile, pas cosmétique.
Le registre européen de transparence ne suffit pas s’il ne relie pas dépenses, rendez-vous, thèmes, résultats attendus, contributions écrites et trajectoires de texte. Il faut passer d’une transparence déclarative à une traçabilité des décisions : qui propose quoi, sur quelle base, avec quels conflits d’intérêts potentiels, et quel impact mesurable sur le texte final.
Équité procédurale.
La consultation ouverte ne garantit pas l’équilibre si seuls les acteurs dotés d’équipes dédiées répondent dans les temps utiles. Mécaniquement, les grandes entreprises “suralimentent” le processus. Pour rééquilibrer, l’UE pourrait réserver des plages d’audition aux PME européennes, laboratoires publics, associations de consommateurs, et financer une assistance technique indépendante pour les parties prenantes sous-dotées.
La doctrine européenne gagnerait à s’attaquer aux interfaces plus qu’aux déclarations d’intention : API obligatoires, schémas de données communs, obligations d’export en temps réel, exigences d’accessibilité algorithmique, standards d’audit reproductible. C’est moins spectaculaire que des amendes, mais plus transformant. Ici, la normalisation (CEN/CENELEC, ETSI) devient un champ de régulation de plein exercice, pas un afterthought.
Soft law vs hard law.
Les codes de conduite ont leur utilité pour itérer vite, mais ils ne doivent pas servir de porte dérobée à l’allègement permanent. Un principe simple pourrait s’imposer : toute “expérimentation” ou “sandbox” débouche sur des obligations durcies si les preuves d’efficacité ne sont pas au rendez-vous, et sur des mesures correctives en cas d’effets indésirables.
Au-delà des entreprises, c’est la relation UE–États-Unis qui se joue. L’UE a bâti une réputation de “rule-maker” mondial. Si elle transforme ses textes en référentiels souples calés sur les préférences des grands opérateurs, elle pourrait perdre ce statut et devenir rule-taker de standards privés transatlantiques.
Mesure et reddition de comptes.
Ce qui manque le plus reste la métrique d’impact : comment vérifier que l’interopérabilité ouvre réellement des marchés ? que la modération réduit la viralité du nocif sans censurer l’utile ? que les garde-fous IA protègent les consommateurs sans écraser l’innovation ? L’UE devrait imposer des indicateurs publics obligatoires et des audits indépendants, avec publication des protocoles et des limites méthodologiques.
L’heure des preuves.
L’Europe a dit ce qu’elle voulait faire. Désormais, elle doit montrer que ses lois ne sont pas des incantations et que l’exécution ne se négocie pas à huis clos. Le cœur de la crédibilité européenne se jouera sur trois chantiers très concrets : la montée en puissance des capacités techniques publiques, la traçabilité des influences sur les textes d’application, et l’obsession de l’impact mesurable.
Si ces trois chantiers avancent, le lobbying restera un dialogue institutionnel normal, utile et encadré. S’ils patinent, la décennie qui s’ouvre pourrait sacrer une Europe du numérique régulée sur le papier, contournée dans les faits.