{"id":291346,"date":"2025-08-02T12:40:19","date_gmt":"2025-08-02T12:40:19","guid":{"rendered":"https:\/\/www.europesays.com\/fr\/291346\/"},"modified":"2025-08-02T12:40:19","modified_gmt":"2025-08-02T12:40:19","slug":"ce-qui-change-a-partir-de-ce-samedi-dans-lue","status":"publish","type":"post","link":"https:\/\/www.europesays.com\/fr\/291346\/","title":{"rendered":"ce qui change \u00e0 partir de ce samedi dans l\u2019UE"},"content":{"rendered":"<p class=\"intro\">\n\tCe 2 ao\u00fbt marque une \u00e9tape cruciale dans l\u2019entr\u00e9e en vigueur de l\u2019AI Act. La l\u00e9gislation europ\u00e9enne sur l\u2019intelligence artificielle cible d\u00e9sormais les mod\u00e8les dits \u201c\u00e0 usage g\u00e9n\u00e9ral\u201d, utilis\u00e9s pour g\u00e9n\u00e9rer du texte, des images ou du code. Une r\u00e9gulation sans pr\u00e9c\u00e9dent qui vise les poids lourds du secteur.<\/p>\n<p class=\"dropcap\">Le r\u00e8glement sur l\u2019intelligence artificielle de l\u2019Union europ\u00e9enne atteint une nouvelle \u00e9tape. Ce 2 ao\u00fbt, ce sont les syst\u00e8mes dits <strong>\u201cGeneral Purpose AI\u201d (GPAI)<\/strong>, ou intelligences artificielles \u00e0 usage g\u00e9n\u00e9ral, qui doivent d\u00e9sormais respecter tout un \u00e9ventail d\u2019exigences. <\/p>\n<p>Sous cette appellation, l\u2019UE regroupe les mod\u00e8les d\u2019IA con\u00e7us pour ex\u00e9cuter une grande vari\u00e9t\u00e9 de t\u00e2ches : r\u00e9daction de textes, g\u00e9n\u00e9ration d\u2019images, r\u00e9solution de probl\u00e8mes math\u00e9matiques, cr\u00e9ation de code ou encore recherche documentaire. Et qui, en raison de leur puissance et de leur polyvalence, sont utilis\u00e9s comme base pour de nombreux outils d\u2019IA et qui repr\u00e9sentent, de ce fait, un risque syst\u00e9mique pour Bruxelles.<\/p>\n<p>L\u2019Union europ\u00e9enne impose d\u00e9sormais aux d\u00e9veloppeurs et fournisseurs de GPAI une s\u00e9rie d\u2019exigences strictes : <strong>transparence sur le fonctionnement des mod\u00e8les<\/strong>, respect du <strong>droit d\u2019auteur<\/strong>, et <strong>dossiers techniques d\u00e9taill\u00e9s<\/strong> sur la mani\u00e8re dont les syst\u00e8mes sont con\u00e7us, test\u00e9s et utilis\u00e9s.<\/p>\n<p>L\u2019objectif ? Garantir que ces outils puissants n\u2019\u00e9chappent pas aux principes fondamentaux de l\u2019Union, en particulier <strong>la protection des droits fondamentaux<\/strong> et <strong>la s\u00e9curit\u00e9 des citoyens<\/strong>. Pour les mod\u00e8les les plus \u00e0 m\u00eame d\u2019avoir un <strong>impact significatif<\/strong> sur la soci\u00e9t\u00e9, les libert\u00e9s publiques ou la sant\u00e9, l\u2019AI Act leur impose de se soumettre \u00e0 des <strong>\u00e9valuations renforc\u00e9es des risques syst\u00e9miques<\/strong>.<\/p>\n<p>Le Code de bonne conduite fait d\u00e9bat<\/p>\n<p>Pour accompagner cette transition, le Bureau europ\u00e9en de l\u2019IA, r\u00e9cemment cr\u00e9\u00e9, a publi\u00e9 un Code de bonnes pratiques GPAI \u00e0 destination des acteurs du secteur. Il s\u2019agit d\u2019un cadre volontaire, mais qui pr\u00e9figure les obligations futures une fois le r\u00e8glement pleinement effectif.<\/p>\n<p>Des g\u00e9ants comme <a href=\"https:\/\/trends.levif.be\/a-la-une\/tech-medias\/code-ia-europeen-lue-a-lorigine-dune-fracture-entre-big-tech\/\" rel=\"nofollow noopener\" target=\"_blank\">Google<\/a> et OpenAI ont annonc\u00e9 leur volont\u00e9 de signer ce code. En revanche, <a href=\"https:\/\/trends.levif.be\/a-la-une\/tech-medias\/meta-dit-non-au-code-de-bonnes-pratiques-ia-de-lue\/\" rel=\"nofollow noopener\" target=\"_blank\">Meta<\/a> a clairement exprim\u00e9 son refus, critiquant la position trop contraignante de l\u2019Union europ\u00e9enne vis-\u00e0-vis de l\u2019intelligence artificielle. L\u2019empire Zuckerberg assure que cela va avoir un effet n\u00e9gatif sur le d\u00e9veloppement et l\u2019adoption de cette technologie au sein de l\u2019UE. <\/p>\n<p>L\u2019AI Act, de quoi s\u2019agit-il ? <\/p>\n<p>Cette nouvelle \u00e9tape du d\u00e9ploiement de l\u2019AI Act offre l\u2019occasion de revenir sur ce cadre l\u00e9gislatif, le premier du genre au niveau mondial. Entr\u00e9 officiellement en vigueur le 1er ao\u00fbt 2024, il a d\u2019abord introduit une s\u00e9rie d\u2019obligations et d\u2019interdictions ciblant notamment les syst\u00e8mes d\u2019IA contraires aux valeurs fondamentales de l\u2019Union europ\u00e9enne. Une seconde phase, entr\u00e9e en application en f\u00e9vrier dernier, a interdit les syst\u00e8mes pr\u00e9sentant un risque jug\u00e9 \u201cinacceptable\u201d, selon la classification \u00e9tablie par Bruxelles. Mais en quoi consiste pr\u00e9cis\u00e9ment l\u2019AI Act ?<\/p>\n<p>\u201cToutes les mesures pr\u00e9vues par l\u2019AI Act visent \u00e0 garantir la s\u00e9curit\u00e9, les droits fondamentaux et une IA centr\u00e9e sur l\u2019humain, et renforcent l\u2019adoption, l\u2019investissement et l\u2019innovation dans l\u2019IA dans toute l\u2019UE\u201d, peut-on lire sur <a href=\"https:\/\/digital-strategy.ec.europa.eu\/fr\/policies\/regulatory-framework-ai\" rel=\"nofollow noopener\" target=\"_blank\">le site de l\u2019Union europ\u00e9enne<\/a>. En d\u2019autres termes, <strong>le r\u00e8glement de l\u2019UE vise \u00e0 mettre les int\u00e9r\u00eats humains au centre de l\u2019attention dans le d\u00e9veloppement de l\u2019IA.<\/strong><\/p>\n<p>C\u2019est dans ce but que le r\u00e8glement a \u00e9t\u00e9 d\u00e9velopp\u00e9, afin de s\u2019assurer que les d\u00e9veloppeurs et d\u00e9ployeurs d\u2019IA construisent des outils fiables, r\u00e9pondant \u00e0 des exigences sp\u00e9cifiques en fonction des risques li\u00e9s aux syst\u00e8mes d\u00e9velopp\u00e9s et \u00e0 leurs usages sp\u00e9cifiques. Un positionnement tr\u00e8s \u00e9loign\u00e9 de celui du cadre l\u00e9gislatif r\u00e9cemment pr\u00e9sent\u00e9 par Donald Trump et qui peut se r\u00e9sumer par : d\u00e9r\u00e9gulation. <\/p>\n<p>L\u2019AI Act s\u2019applique \u00e0 toutes les organisations, grandes ou petites, qui d\u00e9veloppent ou utilisent des syst\u00e8mes d\u2019IA en Europe. Par ailleurs, il s\u2019applique autant pour les entreprises europ\u00e9ennes que pour celles hors UE, du moment qu\u2019elles proposent leurs services sur le march\u00e9 europ\u00e9en. <\/p>\n<p>Quatre niveaux de risque, quatre niveaux d\u2019exigence<\/p>\n<p>L\u2019Union europ\u00e9enne a class\u00e9 les syst\u00e8mes d\u2019intelligence artificielle en fonction des risques qu\u2019ils repr\u00e9sentaient selon leur utilisation pr\u00e9vue. Pour chaque niveau de risque correspond un certain nombre d\u2019obligations pour les d\u00e9veloppeurs et fournisseurs de ces syst\u00e8mes d\u2019IA. <\/p>\n<p>Aucune obligation particuli\u00e8re. Cela concerne par exemple les filtres anti-spam ou les IA utilis\u00e9es dans les jeux vid\u00e9o.<\/p>\n<p>Les IA g\u00e9n\u00e9ratives comme ChatGPT ou Gemini doivent signaler clairement leur nature, et leurs contenus doivent \u00eatre identifiables (deepfakes, textes \u00e0 vis\u00e9e informative\u2026), afin d\u2019\u00e9viter toute confusion de la part des utilisateurs. <\/p>\n<p>Tout syst\u00e8me d\u2019IA d\u00e9ploy\u00e9 dans un domaine susceptible d\u2019avoir un impact majeur sur la sant\u00e9, la s\u00e9curit\u00e9 ou les droits fondamentaux est automatiquement class\u00e9 comme \u00e0 \u201crisque \u00e9lev\u00e9\u201d. Des secteurs tels que l\u2019\u00e9ducation, la sant\u00e9, la justice, l\u2019emploi ou encore la surveillance biom\u00e9trique sont consid\u00e9r\u00e9s comme particuli\u00e8rement sensibles. \u00c0 ce titre, ils impliquent des obligations renforc\u00e9es en mati\u00e8re de s\u00e9curit\u00e9 : robustesse technique, pr\u00e9vention des biais, tra\u00e7abilit\u00e9, transparence documentaire et supervision humaine obligatoire.<\/p>\n<p>Huit pratiques d\u2019IA sont interdites dans l\u2019UE, dont la manipulation, la notation sociale, l\u2019exploitation de vuln\u00e9rabilit\u00e9s, la police pr\u00e9dictive, la reconnaissance faciale \u00e0 distance en temps r\u00e9el, la d\u00e9tection des \u00e9motions \u00e0 l\u2019\u00e9cole ou au travail, la cat\u00e9gorisation biom\u00e9trique visant \u00e0 d\u00e9duire des caract\u00e9ristiques sensibles et la constitution ill\u00e9gale de bases de donn\u00e9es destin\u00e9es \u00e0 la reconnaissance faciale.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.europesays.com\/fr\/wp-content\/uploads\/2025\/08\/pyramid-7f5843e5-9386-8052-931f5c4e98c6e5f2-75757-jpg.jpg\" alt=\"\" class=\"wp-image-497872\"\/><\/p>\n<p>Une surveillance et des amendes sal\u00e9es <\/p>\n<p>Un Bureau europ\u00e9en de l\u2019IA est en charge de v\u00e9rifier le respect des r\u00e8gles de l\u2019AI Act. Les entreprises qui ne respecteraient pas le r\u00e8glement s\u2019exposent \u00e0 des <strong>sanctions particuli\u00e8rement s\u00e9v\u00e8res<\/strong> : jusqu\u2019\u00e0 <strong>35 millions d\u2019euros d\u2019amende<\/strong> ou <strong>7 % du chiffre d\u2019affaires mondial<\/strong>, selon la gravit\u00e9 de la violation.<\/p>\n<p>Avec l\u2019entr\u00e9e en vigueur des r\u00e8gles relatives aux GPAI, faut-il s\u2019attendre \u00e0 une vague de sanctions d\u00e8s le 3 ao\u00fbt ? Peu probable. Bien que l\u2019Union europ\u00e9enne ait r\u00e9affirm\u00e9 son intention de maintenir le calendrier qu\u2019elle s\u2019est elle-m\u00eame fix\u00e9, malgr\u00e9 les critiques et pressions des g\u00e9ants du secteur, il est raisonnable de penser qu\u2019elle fera preuve de pragmatisme. Tant que les acteurs concern\u00e9s d\u00e9montrent leur bonne foi et s\u2019engagent activement dans une d\u00e9marche de mise en conformit\u00e9, Bruxelles pourrait adopter une p\u00e9riode de tol\u00e9rance, \u00e0 l\u2019image de ce qui avait \u00e9t\u00e9 observ\u00e9 en 2018 lors de l\u2019entr\u00e9e en vigueur du RGPD.<\/p>\n","protected":false},"excerpt":{"rendered":"Ce 2 ao\u00fbt marque une \u00e9tape cruciale dans l\u2019entr\u00e9e en vigueur de l\u2019AI Act. La l\u00e9gislation europ\u00e9enne sur&hellip;\n","protected":false},"author":2,"featured_media":291347,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1586],"tags":[11,1777,674,1779,1011,27,12,25,1778,364],"class_list":{"0":"post-291346","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-europe","8":"tag-actualites","9":"tag-eu","10":"tag-europe","11":"tag-european-union","12":"tag-fr","13":"tag-france","14":"tag-news","15":"tag-republique-francaise","16":"tag-ue","17":"tag-union-europeenne"},"share_on_mastodon":{"url":"https:\/\/pubeurope.com\/@fr\/114959222266615374","error":""},"_links":{"self":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/291346","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/users\/2"}],"replies":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/comments?post=291346"}],"version-history":[{"count":0,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/posts\/291346\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media\/291347"}],"wp:attachment":[{"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/media?parent=291346"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/categories?post=291346"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.europesays.com\/fr\/wp-json\/wp\/v2\/tags?post=291346"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}