L’Union européenne, précurseur dans l’encadrement juridique de l’intelligence artificielle, se voit obligée de décaler l’entrée en vigueur de certaines dispositions. Il s’agit de ne pas pénaliser les développements technologiques, et donc commerciaux, sur ce marché mondial.
Publié le 17/05/2026 17:00
Temps de lecture : 2min

Pour l’IA, l’Union européenne doit répondre aux attentes à la fois des industriels et des utilisateurs. (DIGITAL VISION VECTORS / GETTY IMAGES)
Souvent pointée du doigt pour sa tendance à produire des normes, l’Union européenne veut, désormais, simplifier la réglementation qui s’impose aux entreprises en matière d’intelligence artificielle.
La situation est résumée par le constat effectué début mai 2026 par Henna Virkkunen, vice-présidente de la Commission européenne : « Nos entreprises et nos citoyens attendent deux choses des règles en matière d’IA. Ils veulent pouvoir innover et se sentir en sécurité ».
D’un côté, les industriels n’avaient pas vu d’un très bon œil que l’Union européenne se dote, avec l’AI Act, d’un cadre juridique contraignant pour encadrer des technologies et des usages encore largement en construction. Même si les législateurs européens avaient pris soin de prévoir une entrée en vigueur échelonnée dans le temps, à partir d’août 2024 jusqu’à 2030.
Les citoyens, eux, notamment par la voix des associations de défense des consommateurs ou des libertés individuelles, s’inquiètent. Ils craignent de possibles dérives, en l’absence de conditions explicites, dans l’emploi à très grande échelle par les modèles d’IA de capacités massives de traitement des données (personnelles ou non).
Les entreprises européennes ne sont pas les seules à évoquer le désavantage compétitif que pouvait représenter une Europe où les modalités d’exploitation des intelligences artificielles seraient strictement limitées.
Les grands acteurs du numérique américains ont su faire entendre leurs voix à Washington, au point d’obtenir l’appui du Président Donald Trump pour négocier une levée, ou au moins un aménagement, de ce qu’ils considèrent comme un frein à leur commerce en Europe.
Il s’agit pour l’essentiel de reports d’entrée en application des règles européennes. Ainsi, les concepteurs de services d’intelligence artificielle considérés à haut risque ont désormais jusqu’au 2 décembre 2027 pour se mettre en conformité. Il peut s’agir d’IA qui interviennent dans des domaines sensibles, comme la biométrie servant aux contrôles des migrants ou à la supervision des frontières.
L’échéance est décalée au 2 août 2028 pour les industriels qui intègrent de l’IA dans leurs équipements, comme les jouets ou les ascenseurs.
La seule nouveauté est l’interdiction formelle des logiciels des systèmes d’IA qui génèrent des contenus sexuellement explicites et intimes non consentis, ou du matériel pédopornographique. Cela vise les applications de « nudification » qui servent à fabriquer de toutes pièces des images de personnes dénudées. Là encore, c’est la multiplication récente de telles publications sur les réseaux sociaux qui a conduit à l’adoption rapide de cette mesure.
En matière de technologies, les régulateurs doivent donc constamment trouver le juste équilibre entre la liberté de créer et le respect de l’ordre public dans l’espace numérique.