Contenu conçu et proposé par EBRA Inspirations en partenariat avec EBRA Inspirations est une marque qui valorise les contenus rédactionnels promotionnels.
La rédaction n’a pas participé à la réalisation de cet article.

Witik

Pour des millions d’entreprises opérant sur le marché européen, ce texte n’est plus une perspective lointaine : c’est une réalité réglementaire, avec des échéances déjà actives et des obligations qui s’accumulent jusqu’en 2027.

Un cadre réglementaire inédit pour encadrer l’IA en Europe

Origines et objectifs : éthique, sécurité et harmonisation

L’AI Act naît d’un constat simple : le droit existant n’était pas taillé pour répondre aux risques spécifiques posés par les systèmes d’intelligence artificielle. Biais algorithmiques, surveillance de masse, manipulation des comportements… autant de dérives que le législateur européen a voulu anticiper plutôt que subir. L’enjeu pour les entreprises dépasse la simple mise en conformité juridique.

Il s’agit de structurer une gouvernance IA durable, ce qui pousse de plus en plus d’organisations à choisir un logiciel conformité AI act adapté à son secteur comme peut le proposer Witik par exemple. Le règlement poursuit trois ambitions : protéger les droits fondamentaux des citoyens, donner aux entreprises un cadre lisible pour innover, et harmoniser les pratiques au sein du marché unique européen.

Quatre niveaux de risque, quatre régimes d’obligations

Risques inacceptables et élevés : les exigences les plus strictes

L’AI Act classe les systèmes d’IA selon leur niveau de dangerosité potentielle. Au sommet de l’échelle, les usages dits à risque inacceptable sont purement et simplement interdits : c’est le cas des systèmes de notation sociale des citoyens ou des outils exploitant les vulnérabilités des enfants à des fins commerciales.

Juste en dessous, les systèmes à haut risque restent autorisés, mais sous conditions strictes. Entrent dans cette catégorie les logiciels de tri de CV dans le recrutement, ou encore les outils d’aide au diagnostic médical. Les entreprises qui les déploient doivent produire une documentation technique complète, réaliser une évaluation des risques avant tout lancement, garantir la transparence vis-à-vis des utilisateurs, et inscrire leurs systèmes dans un registre européen public.

Risques limités et minimaux : des règles allégées mais existantes

Les systèmes à risque limité, comme les chatbots ou assistants vocaux, échappent aux exigences lourdes, mais pas à toute obligation : les utilisateurs doivent être informés qu’ils interagissent avec une IA et non avec un humain. Les systèmes à risque minimal, tels que les filtres photo ou les IA intégrées aux jeux vidéo, ne font l’objet d’aucune restriction spécifique.

Ce que les entreprises doivent concrètement mettre en place

Documentation, évaluation des risques et registre européen

Pour les systèmes classés à haut risque, les obligations sont précises. Les entreprises doivent documenter le fonctionnement de leurs algorithmes, les données d’entraînement utilisées et les mesures prises pour limiter les impacts négatifs. Cette documentation doit être disponible pour les autorités de contrôle. L’enregistrement dans le registre européen constitue également une obligation distincte, visant à rendre les technologies sensibles accessibles à la surveillance publique.

L’AI Act ne fonctionne pas en vase clos. Il s’articule avec le RGPD sur la question des données personnelles, avec la directive NIS2 sur la cybersécurité, et avec les réglementations sectorielles propres à la santé, la finance ou le transport.

Sanctions, gouvernance et mesures pour les PME

Le non-respect des règles expose à des sanctions financières significatives : jusqu’à 30 millions d’euros ou 6 % du chiffre d’affaires annuel mondial pour les infractions les plus graves, notamment l’utilisation de systèmes appartenant à la catégorie interdite. La surveillance sera assurée par des autorités nationales désignées dans chaque État membre, habilitées à mener des audits et à imposer des mesures correctives.

Les PME et startups bénéficient toutefois de dispositions allégées : processus de documentation simplifiés, audits adaptés à leur taille, et accès à des ressources de formation et de subventions prévues au niveau européen. 

Calendrier et premières étapes pratiques

De février 2025 à août 2027 : les échéances à retenir

La mise en œuvre est progressive mais serrée. Les interdictions visant les systèmes à risque inacceptable sont entrées en application dès le 1er février 2025. Le 2 août 2025 marque l’entrée en vigueur des dispositions relatives aux modèles d’IA à usage général (GPAI), à la gouvernance et aux sanctions. Le gros des obligations deviendra applicable le 2 août 2026, tandis que certaines dispositions spécifiques, celles de l’article 6 paragraphe 1, ne s’imposeront qu’à partir du 2 août 2027.

Pour les entreprises, la priorité immédiate est d’inventorier leurs systèmes d’IA, d’évaluer leur niveau de risque réglementaire, et de désigner en interne les responsables de la conformité. Le calendrier est progressif, mais la fenêtre pour agir sans précipitation se rétrécit.


Contenu conçu et proposé par EBRA inspirations
avec Witik