Intelligence artificielle : des recours juridiques limités • FRANCE 24

Bonjour et bienvenue dans l’entretien de l’intelligence économique, l’émission consacré aux coulisses de la mondialisation. L’Europe dispose d’une loi sur l’intelligence artificielle. Mais est-on sûr, comme le prétendent ses rédacteurs, qu’elle protège vraiment ses concitoyens contre les abus de l’IA ? La loi existe donc, mais il manque une directive pour garantir en pratique nos droits. Pour en parler, je reçois Alexandra Itanou, avocate spécialiste de ces questions. Bonjour Alexandra Itanou. Bonjour. Allez très rapidement. Cette loi de l’IA européenne, elle dit quoi en gros ? Alors, l’IA, c’est un règlement qui est entré euh en vigueur en juin 2024 et qui est la première réglementation mondiale qui encadre euh l’usage des systèmes d’intelligence artificielle avec des obligations qui vont être notamment imposées aux fournisseurs de ces systèmes d’intelligence artificielle. Ouais. Donc, elle voit plutôt les risques et nous protège-nous les citoyens. C’est ça. Alors, c’est effectivement c’est une c’est une réglementation qu’on appelle éthique qui est faite sur différents risques. Donc, il y a des IAS qui sont considérés comme interdites, notamment les IAS de notation sociale et cetera. Il y a des I qui sont considérés comme à haut risque comme par exemple la biométrie et puis il y a des I qui sont considérés comme à moindre risque comme les deep fake ou les chat GP et classement. Donc, c’est un classement par les risques et on a des obligations en fonction est classé. C’est ça totalement. Il y a des obligations de plus en plus renforcées. Plus on est une IA qui est considérée comme un risque par ce règlement là. H alors là sur l’encadrement, vous le trouvez satisfaisant par rapport à la loi d’un point de vue déjà théorique dans le le texte de loi. Alors d’un point de vue théorique, ce qui est satisfaisant, c’est que c’est la première loi au niveau mondial et puis que ça quand même ça assoit notre vision, la vision européenne de l’IA et des droits et des droits et libertés des des citoyens européens. C’est important, on est vraiment dans la protection des citoyens européens quand on parle d’IA à la différence de certains pays comme par exemple aux États-Unis où on va on va dire favoriser l’innovation au détriment parfois des droits et libertés des citoyens. Quand vous dites protection, c’est-à-dire vraiment c’est la protection de mon intégriténelle quoi, donc de mon intimité. Exactement. Exactement. Il y a des obligations de transparence qui vont être imposées à ces fournisseurs d’IA. Il faudra notamment quand il y a des images qui sont générées par CIA, il faudra que ce soit écrit que c’est des images qui sont générées par des IA. Donc il y a vraiment des obligations transparences de voilà qui vont protéger les citoyens et qui vont les avertir quand ils sont en présence ou non du NIIA. La transparence jusqu’à connaître leur algorithme ou pas ? Alors là ça ça a été une grande question notamment pendant la rédaction de ce texte et puis ça ce qui a été opposé à ça c’est le secret des affaires évidemment du côté des fournisseurs d’IA. Et donc il y a une obligation d’explicabilité qui est écrit dans le règlement. C’està dire qu’il faut expliquer ces algorithmes mais évidemment on ne va pas jusqu’à ouvrir totalement la machine. Je pense que le règlement parle de résumer de résumer de la manière dont c’est de l’explication ou totalement. Voilà c’est et pas forcément public. Bah il faut que ce soit à la porortter à la connaissance effectivement des gens qui seront concernés qui et qui en font la demande et pas de manière totalement ouverte. D’accord. Donc, il y a cette loi-là, mais vous avocat, vous considérez qu’il fallait un autre pilier, c’est-à-dire pour concrétiser concrètement nos nos droits, ça devait être une directive. Il devait y avoir quoi dans cette directive ? Effectivement, parce que le droit, il ne peut pas fonctionner sans responsabilité. La responsabilité, c’est ce qui va permettre aux citoyens quand ils quand ils subissent un préjudice d’obtenir réparation et puis ça va permettre aux entreprises aussi de ne pas commettre de fautes. Ça va les ça donc quand on a un test comme il a Act qui ne parle pas de responsabilité, c’est quand même un problème aujourd’hui parce qu’on se demande comment est-ce qu’un citoyen qui va subir un dommage va pouvoir obtenir réparation sans cette responsabilité. Et donc c’était le but de cette directive qui datait du 28 septembre 2022 qui organisait la responsabilité notamment de ses fournisseurs de système pour aider le juge. En fait tout est une question d’aider le juge pour justement dire qui est fautif ou non. Donc on est d’accord, ce sont des gens qui ont réfléchi sur l’IA, le règlement et en parallèle à partir de 22, il réfléchissaient aussi sur une application concrète pour protéger nos droits, notamment permettre au juges d’aller chercher les preuves. Totalement. Cette ce projet de directive avait deux obligations majeures au sein de son texte. La première c’était il permettait au juges national donc au juges français d’obliger le fournisseur du système Dapporter les preuves pertinentes. Ça c’était la première obligation. Et la seconde, c’était ce qu’on appelle un présomption de l’incausalité, c’est-à-dire de lier le préjudice à la faute, ce qui est très compliqué avec les systèmes d’IA parce qu’on sait que c’est des systèmes qui sont très opaques. Il y a souvent une chaîne importante de sous-traitant. Donc quand on est nous victime d’un système d’IA, comment est-ce qu’on peut prouver au final que notre préjudice est en lien avec une faute, une la faute de ce fournisseur de système di ? Donc aujourd’hui, il y a pas de droit réel. Aujourd’hui, cette directive a été retirée par la Commission européenne. Alors, c’est intéressant de refaire la chronologie quand même. En janvier 2025, il y a un communiqué qui a été publié par les lobby de la TEC, donc notamment Google, Amazon et cetera, qui justement militait pour le retrait de cette directive, de ce projet directive. en disant que ça faisait une surréglementation au niveau européen. Suite à ça, il y a eu le sommet de l’IA donc en février par Macron par le président Macron. Voilà, au grand palais donc ce grand raout. Exactement. Au cours duquel il y a le vice-président américain qui a tenu un discours exactement. Qui a tenu un discours un peu offensif en disant que c’était une censure, cia acte et que il était contre cette surréglementation de l’IA. Et quelques jours après, dans le programme de travail de la Commission européenne qui est sorti en février 2025, discrètement à l’annexe 4, on remarque au point 32, donc un petit point que ce projet de directive a été retiré pour cause d’accord prévisible. Alors, ça veut dire quoi d’accord prévisible ? C’estàd ils sont sûrs de pas s’entendre entre eux. Donc, ils se sont entendus entre eux pour faire le règlement mais ils ne pouvaient pas s’entendre pour faire l’application concrète. C’est étrange comme Ouais, totalement. Totalement. On sent bien sûr qu’il y a une déconsidération politique derrière tout ça et que aujourd’hui au final on se retrouve avec un système avec une réglementation qui est très belle, qui a des brux principe et cetera mais qu’ qu’il va être difficile d’appliquer en pratique pour les citoyens européens. Alors en pratique, c’est-à-dire pour vous aussi concrètement, est-ce que vous pouvez vous appuyer sur le règlement ? Est-ce que c’est suffisant pour défendre éventuellement vos clients ? Alors non, ce ne sera pas suffisant puisque le règlement ne parle pas de responsabilité. Il va falloir qu’on s’applique sur le droit français et notamment sur un article du code civil qui est très connu qui est l’article 1240 sur la responsabilité qui est un article qui est vieux qui date de du début du 19e siècle. Ah oui ! Et qui euh dit justement que tout fait quelconque de l’homme qui cause à autrui un dommage s’oblige à le réparer. Donc il va falloir prouver que la victime a subi un dommage, que le fournisseur a fait une faute et qu’il y a un lien entre cette faute et ce dommage. Et ça va être très compliqué si on n’est pas aidé par des présomptions de causalité ou par des obligations d’ouvrir d’une certaine manière la boîte noire qui est le système difficile aussi de trouver le fournisseur. Enfin qui qui vous allez viser ? les géants de la tech ou vous allez plutôt viser celui qui a imaginé l’algorithme de l’intelligence artificielle. Totalement, c’est le problème, c’est le problème d’absence de texte sur la responsabilité parce qu’au final, qu’est-ce qui va se passer si on n pas de réglementation sur la responsabilité ? C’est le contrat qui va gouverner au final ces questions de responsabilité et ces contrats, ils sont rédigés non pas par en faveur de la victime ou pour la victime, ils sont rédigés par ses fournisseurs américains. Ouais. ces fameuses conditions d’utilisation regarde absolument pas où on met oui parce queon pas envie de lire tout ça quand on utilise lia et et pour vous il y a un autre problème c’est justement vous venez d’en parler c’est la la une question de souveraineté pourquoi parce que la souveraineté justement en tout cas dans la définition juridique qu’on en fait c’est le fait de pouvoir imposer à un fournisseur étranger notre loi et notre juge national h h et quand on est face à ces conditions générales d’utilisation à défaut de loi qui est au-dessus de ça et qui leur impose justement à ces gens-là notre juge et notre loi, bah c’est ces conditions générales qui vont imposer leur juge et leur loi et notamment dans les conditions générales de chat GPT, le juge désigné c’est le juge californien et la loi désignée, c’est la loi californien. Donc j’aurais pas le choix. Si j’ai un problème avec chat GPT, je suis obligé de passer par la Californie. Ça veut dire qu’il va falloir aller chercher un avocat là-bas et donc aller devant le juge californien à défaut de réglementation qui est supérieur. Est-ce que je peux pas m’appuyer sur le RGPD ? Donc le règlement général sur la protection des données ? Alors effectivement mais pour s’appuyer sur le RGPD, il faudrait qu’il y ait des données à caractère personnel qui soient impliquées. Donc effectivement on a d’autres textes et d’autres alternatives qui existent mais il faut que ce soit donc un dommage qui est en lien avec vos données personnelles, ce qui n’est pas toujours le cas. Je prends par exemple le l’exemple d’une voiture connectée. Si vous avez un dommage, il y a pas forcément vos données personnelles qui sont impliquées si vous avez un dommage physique, il va falloir aller chercher une autre forme de responsabilité ou un logiciel de dosage de médicament qui donne le mauvais dosage de médicament à cause du NIA. Tout ça c’est pas forcément lié à vos données à caractère personnel. Donc si vos données à caractère personnel ne sont pas impliquées, vous ne pourrez pas évoquer le RGPD. Il y a le droit aussi d’auteur. On peut attaquer là-dessus. Totalement. il y a le droit d’auteur. Donc si effectivement UNIA contrevient fait une contrefaçon de votre œuvre de votre œuvre, il est possible effectivement de se fonder sur le droit d’auteur et donc dans du code de la propriété intellectuelle. D’accord. Vous pensez qu’on va en rester là parce que l’Europe est considérée comme beaucoup trop bureaucratique que ce serait un frein à l’innovation. C’est quoi votre position là-dessus ? Faux prétexte. Pour moi, c’est un faux prétexte. On n’est pas sur une Le problème c’est pas de la surréglementation, c’est de la clarification pour moi. C’est que ces textes là, la responsabilité c’est un enjeu majeur en droit. Sans ces responsabilités là, sans le fait de sans encadrer cette responsabilité là, le droit ne sert à rien d’une certaine manière. Le droit, il ne marche que s’il y a un écosystème, que si on permet au juge de comprendre techniquement ce qui a et si on lui donne les moyens de pouvoir justement avoir les preuves pour rendre responsable les bons responsables. Sinon, on va passer à côté de la responsabilité. Donc c’est un faux prétexte de dire que on empêche l’innovation. C’est un faux prétexte de dire qu’on empêche l’innovation quand on en tout cas quand on supprime un projet directive comme celui-ci. Hm hm. Il y a quand même un un un bureau européen de l’intelligence artificielle qui était dans le règlement donc qu’il existe depuis février 2024. Il sert à quoi alors ? Enregistrer juste les plaintes ? Alors, les plaintes, ils se feront au niveau national. De toute façon, ça sera pas au niveau de ce bureau. Ce bureau, il est là pour édicter, on va dire, des lignes directrices et des grands principes et d’interpréter cet act qui est quand même assez euh lourd et conséquent. Hm hm. Mais pour autant, est-ce qu’on va aller vers un peu plus de déburocratisation euh de l’intelligence artificielle ? Est-ce que c’est votre crainte aujourd’hui ? Ma crainte aujourd’hui effectivement c’est qu’on soit gouverné non plus par nos lois mais par les conditions générales de ces grandes plateformes. H et c’est le problème si on supprime des textes comme celui-là qui sont des textes pour moi majeurs. H Merci beaucoup Alexandra pour vos réponses. L’entretien de l’intelligence économique est terminé. Évidemment, vous pouvez retrouver cette émission sur france24.com, sur nos réseaux sociaux et sur nos podcasts. Au revoir. [Musique]

L’Europe dispose d’une loi sur l’intelligence artificielle (IA). Mais est-on sûr, comme le prétendent ses rédacteurs, qu’elle protège vraiment ses concitoyens contre les abus de ce secteur en plein essor ? La loi existe bel et bien, mais il manque une directive pour garantir, en pratique, nos droits : explications avec Alexandra Iteanu, avocate, spécialiste de ces questions. 

En savoir plus avec notre article : https://f24.my/BBPM.y

🔔 Abonnez-vous à notre chaîne sur YouTube : https://f24.my/YTfr
🔴 En DIRECT – Suivez FRANCE 24 ici : https://f24.my/YTliveFR

🌍 Retrouvez toute l’actualité internationale sur notre site : https://www.france24.com/fr/
📲 Recevez votre concentré d’information sur WhatsApp : https://f24.my/WAfr
et sur Telegram : https://f24.my/TGfr

Rejoignez-nous sur Facebook : https://f24.my/FBfr
Suivez-nous sur X : https://f24.my/Xfr
Bluesky : https://f24.my/BSfr et Threads : https://f24.my/THfr
Parcourez l’actu en images sur Instagram : https://f24.my/IGfr
Découvrez nos vidéos TikTok : https://f24.my/TKfr

4 comments
  1. Intelligence artificielle rien que cela lorsque l'ont observe le nombre de potagers qui leurs Sert de cerveaux effectivement intelligence artificielle des légumes en toutes saisons.

Comments are closed.