On aime répéter que l’Union européenne est «la première puissance au monde à réguler l’intelligence artificielle». La formule est élégante, rassurante, presque performative. Elle suggère que l’Europe, encore une fois, aurait montré la voie, comme avec le règlement général sur la protection des données (RGPD). Mais cette affirmation sonne aujourd’hui comme un trompe-l’œil. A mesure que l’AI Act approche de son entrée en vigueur, les ambitions initiales du texte sont méthodiquement rabotées. Comme l’a révélé Financial Times, les dispositions les plus structurantes, celles qui devaient encadrer les puissants modèles de fondation, sont en train d’être affaiblies sous la pression directe des «Big Tech» américaines.

Le cœur du problème dépasse largement le débat technique. Pour la première fois dans l’histoire récente de la régulation européenne, des entreprises privées, américaines pour la plupart, ont réussi à réécrire l’essence d’une loi avant même qu’elle ne soit pleinement adoptée. La méthode est connue : rencontres intensives, argumentaire «pro-innovation», promesse d’emplois, menace de perte de compétitivité. Mais l’ampleur, elle, est inédite.

Sous ces pressions, les obligations de transparence des systèmes d’intelligence artificielle générative (de type ChatGPT et autres), de documen