Souvent pointée du doigt pour sa tendance à produire des normes, l’Union européenne veut, désormais, simplifier la réglementation qui s’impose aux entreprises en matière d’intelligence artificielle.

La situation est résumée par le constat effectué début mai 2026 par Henna Virkkunen, vice-présidente de la Commission européenne : « Nos entreprises et nos citoyens attendent deux choses des règles en matière d’IA. Ils veulent pouvoir innover et se sentir en sécurité ».

Répondre aux entreprises comme aux citoyens

D’un côté, les industriels n’avaient pas vu d’un très bon œil que l’Union européenne se dote, avec l’AI Act, d’un cadre juridique contraignantOuverture dans un nouvel onglet pour encadrer des technologies et des usages encore largement en construction. Même si les législateurs européens avaient pris soin de prévoir une entrée en vigueur échelonnée dans le temps, à partir d’août 2024 jusqu’à 2030.

Les citoyens, eux, notamment par la voix des associations de défense des consommateurs ou des libertés individuelles, s’inquiètent. Ils craignent de possibles dérives, en l’absence de conditions explicites, dans l’emploi à très grande échelle par les modèles d’IA de capacités massives de traitement des données (personnelles ou non).

Les entreprises européennes ne sont pas les seules à évoquer le désavantage compétitif que pouvait représenter une Europe où les modalités d’exploitation des intelligences artificielles seraient strictement limitées.

Les grands acteurs du numérique américains ont su faire entendre leurs voix à Washington, au point d’obtenir l’appui du Président Donald Trump pour négocier une levée, ou au moins un aménagement, de ce qu’ils considèrent comme un frein à leur commerce en Europe.

Un calendrier remanié

Il s’agit pour l’essentiel de reports d’entrée en application des règles européennesOuverture dans un nouvel onglet. Ainsi, les concepteurs de services d’intelligence artificielle considérés à haut risque ont désormais jusqu’au 2 décembre 2027 pour se mettre en conformité. Il peut s’agir d’IA qui interviennent dans des domaines sensibles, comme la biométrie servant aux contrôles des migrants ou à la supervision des frontières.

L’échéance est décalée au 2 août 2028 pour les industriels qui intègrent de l’IA dans leurs équipements, comme les jouets ou les ascenseurs.

La seule nouveauté est l’interdiction formelle des logiciels des systèmes d’IA qui génèrent des contenus sexuellement explicites et intimes non consentis, ou du matériel pédopornographique. Cela vise les applications de « nudification » qui servent à fabriquer de toutes pièces des images de personnes dénudées. Là encore, c’est la multiplication récente de telles publications sur les réseaux sociaux qui a conduit à l’adoption rapide de cette mesure.

En matière de technologies, les régulateurs doivent donc constamment trouver le juste équilibre entre la liberté de créer et le respect de l’ordre public dans l’espace numérique.