À peine deux ans après son adoption, le règlement européen sur l’intelligence artificielle est déjà en cours de réécriture. Le Parlement et le Conseil de l’UE viennent de trouver un accord pour reporter les obligations les plus contraignantes jusqu’en 2027 et 2028, alléger les règles pour les ETI et supprimer certains doublons réglementaires. Seule ligne rouge renforcée : l’interdiction explicite des applications de “nudification” et des contenus pédopornographiques générés par IA. Pragmatisme ou reculade ?

Confrontée aux inquiétudes des industriels et au risque d’une mise en oeuvre chaotique de son règlement sur l’intelligence artificielle (AI Act), l’Union européenne a choisi de temporiser. Derrière les ajustements techniques négociés cette semaine se dessine un changement plus profond : Bruxelles cherche autant à réguler l’IA qu’à éviter d’étouffer son développement.

Ce 7 mai 2026, le Parlement et le Conseil de l’UE – qui représente les gouvernements des États membres de l’UE – ont trouvé un accord visant à simplifier plusieurs pans du texte, dans le cadre du paquet “Omnibus VII” consacré à la simplification réglementaire.

La forme change, le fond résiste

Le compromis trouvé ne remet pas en cause la philosophie générale du règlement. L’approche fondée sur les risques est maintenue. Les interdictions les plus sensibles restent également en place. Mais plusieurs obligations vont être repoussées, allégées ou clarifiées.

Le changement le plus structurant concerne les systèmes d’IA dits “à haut risque”. Initialement, une partie importante des obligations devait commencer à s’appliquer dès le 2 août 2026. Désormais, le calendrier est repoussé : les obligations sur les systèmes d’IA ayant un usage à haut risque seront repoussées au 2 décembre 2027, tandis que celles concernant les IA utilisées comme composants de sécurité dans des produits régulés n’entreront en vigueur qu’en août 2028.

Le Parlement et le Conseil justifient ce report par l’absence de standards techniques suffisamment finalisés pour permettre une mise en conformité homogène. Les institutions européennes reconnaissent donc qu’une partie de l’écosystème réglementaire nécessaire à l’application du texte est inexistante. La Commission européenne doit encore produire de nombreux standards et guides techniques.

Éviter les doublons réglementaires

Le deuxième objectif du texte consiste à réduire les chevauchements réglementaires. L’un des points les plus sensibles concernait les secteurs déjà fortement régulés, tels que les machines industrielles, les dispositifs médicaux, les jouets ou encore certains équipements de sécurité.

Le compromis trouvé prévoit un mécanisme permettant de limiter l’application de certaines obligations du règlement IA lorsque des exigences équivalentes existent déjà dans des réglementations sectorielles.

Les exemptions s’étendent au-delà des seules PME

Les institutions ont également décidé d’élargir plusieurs exemptions réglementaires. Jusqu’ici réservées aux petites et moyennes entreprises, certaines mesures de simplification sont désormais étendues aux “small mid-caps”, c’est-à-dire des entreprises de taille intermédiaire plus petites que les grands groupes mais plus importantes qu’une PME classique.

L’objectif est de limiter les coûts administratifs liés à la conformité, notamment pour les entreprises qui développent ou déploient des modèles d’IA sans disposer des ressources des mastodontes américains.

Tolérance zéro pour les deepfakes sexuels

Le volet le plus politique de l’accord concerne les usages abusifs de l’intelligence artificielle générative. Le Parlement a obtenu l’interdiction explicite des applications dites de “nudification”, capables de générer des images sexuelles non consenties à partir de photographies réelles.

Le texte interdit également les systèmes destinés à produire des contenus pédopornographiques générés par IA. L’interdiction vise à la fois la commercialisation de ces systèmes, leur mise sur le marché sans garde-fou suffisants ainsi que leur utilisation à ces fins. Les entreprises concernées ont jusqu’au 2 décembre 2026 pour se mettre en conformité.

Cette disposition répond à l’explosion récente des deepfakes sexuels générés par l’IA, le chatbot Grok en tête.

Par ailleurs, le texte accélère l’entrée en vigueur des obligations de transparence sur les contenus générés par l’IA. Les fournisseurs devront mettre en place, dès le 2 décembre 2026, des mécanismes permettant d’identifier qu’une image, une vidéo ou un audio a été créé artificiellement par une IA. Cette échéance est désormais plus courte que celle initialement envisagée par la Commission européenne, qui proposait une application à partir de février 2027.

L’AI Act face à l’épreuve du terrain

Au fond, cette réforme éclair révèle surtout les difficultés concrètes d’application de l’AI Act. Ce dernier avait été présenté comme le premier grand cadre réglementaire mondial dédié à cette technologie. Mais sa mise en oeuvre se heurte à plusieurs obstacles : manque de standards techniques, complexité d’articulation avec les lois sectorielles, crainte d’une surcharge administrative et vitesse d’évolution des modèles.

Les institutions semblent désormais chercher un équilibre plus favorable au développement industriel de l’IA en Europe. Le texte doit être encore formellement adopté par le Parlement et le Conseil avant d’entrer en vigueur. Les deux institutions visent une adoption avant le 2 août 2026. Sans texte révisé à cette date, les anciennes règles s’appliqueront automatiquement.