1 Où en est la régulation européenne de l’IA ?

Ce samedi 2 août, l’Union européenne lance le 2e volet du règlement sur l’intelligence artificielle, l’AI Act, un an après son adoption. Après celui portant sur les risques « inacceptables » d’usage, entré en vigueur en février, ce texte met l’accent sur les règles à respecter du côté des modèles d’IA à usage général. Les concepteurs tels qu’OpenAI (ChatGPT), Google (Gemini), X (Grok), Meta ou le Français Mistral AI sont concernés.

Cette nouvelle étape s’inscrit dans un contexte de mise en place d’obligations en matière d’IA en Europe. L’exécutif européen dit vouloir limiter ses dérives tout en évitant de brider l’innovation. C’est pourquoi il classifie les systèmes selon leur niveau de risque, avec des contraintes proportionnelles au danger.

2 Quelles seront les règles ?

Tout dépend des acteurs concernés. Les modèles d’IA à usage général dits standards auront, dans un souci de transparence, à mettre à disposition par exemple la liste des données d’entraînement (celles protégées par des droits d’auteurs comprises). Elles permettront ainsi aux ayants droit d’avoir la documentation nécessaire pour réclamer une rémunération en cas d’utilisation de leurs contenus.

Les modèles porteurs d’un risque systémique – les plus puissants – seront quant à eux soumis à davantage de règles, parfois plus strictes, comme celle de notifier et de gérer les incidents graves.

L’UE appelle à exclure de l’IA les sites connus pour des actes répétés de piratage et demande aux signataires de s’engager à vérifier que leurs modèles ne reprennent pas des propos injurieux ou violents.

Les applications à haut risque, utilisées par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront soumises, d’ici à 2026, à des exigences renforcées avant toute autorisation de mise sur le marché.

3 Comment prouver que les règles sont respectées ?

Les fournisseurs d’IA devront, pour se conformer, démontrer qu’ils répondent aux normes standardisées via des organismes agréés ou, à l’inverse, se débrouiller par d’autres moyens.

Une autre solution consiste à adhérer à un « code des bonnes pratiques », pour que les entreprises signataires bénéficient d’une « charge administrative réduite » quand il s’agira de prouver qu’elles se conforment bien à la législation européenne. Publié le 10 juillet, ce guide détaille les obligations à remplir en matière de transparence (description du modèle, méthodes d’entraînement, limites), les droits d’auteur (informations sur les contenus protégés utilisés), et les questions de sûreté (tests, cybersécurité).

4 Quelles sont les sanctions encourues ?

Ce règlement de l’AI Act doit être applicable – avec des contrôles et des sanctions à la clé – le 2 août 2026 pour les nouveaux modèles mis sur le marché ; en 2027 pour ceux déjà existants avant l’entrée en vigueur.

Pour faire respecter la loi européenne sur l’IA, les États membres doivent notifier dès ce samedi à Bruxelles les autorités de surveillance du marché qu’ils vont désigner pour contrôler les entreprises. En France, la Cnil pourrait jouer ce rôle.

Car des sanctions (très) salées sont prévues : une amende allant jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires annuel mondial total peut être infligée aux sociétés contrevenant à la loi.

5 Quelles entreprises jouent le jeu ?

La start-up française Mistral AI a d’ores et déjà annoncé signer le code de bonnes pratiques. Même chose pour OpenAI, qui avait un temps menacé de retirer ChatPT du marché européen.

Même s’il a affirmé que les règles européennes « risquent de ralentir le développement de l’IA en Europe », Google a prévu de signer ce code, comme l’a confirmé mercredi Kent Walker, président des affaires mondiales de Google.

6 Quels sont les opposants à ce règlement ?

Contrairement à Google, Meta (Facebook, Instagram) a affirmé qu’il ne signera pas la charte, estimant que l’Union européenne « s’engage sur une mauvaise voie » en matière de régulation de cette technologie. Ce texte, d’après l’entreprise, introduirait « de nombreuses incertitudes juridiques » et irait « au-delà du périmètre prévu par le législateur ».

Ce cadre plus strict déplaît aussi fortement à l’administration américaine qui y voit un frein à l’innovation. Surtout, cette législation va à rebours des ambitions de Donald Trump : ce dernier veut « gagner » la course à l’IA et faire des modèles américains les « standards de référence » dans le monde entier. Le président des États-Unis a d’ailleurs présenté, mi-juillet, un plan d’actions dans ce secteur… dans lequel figure un projet de dérégulation.