L'organisme indépendant d'audit et de recherche WEMF a mis au point, avec l'audit « Responsible AI », une nouvelle certification et un label de qualité ouverts à tous les médias en Suisse.

Avec l’audit «Responsible AI», l’organisme indépendant d’audit et de recherche WEMF a mis au point une nouvelle certification et un label de qualité ouverts à tous les médias en Suisse.

KEYSTONE/Alessandro della Valle

Le secteur suisse des médias présente pour la première fois un code de l’intelligence artificielle (IA), qui fixe des règles communes pour l’utilisation de cette technologie.

Ce contenu a été publié sur

13 mai 2026 – 11:00

L’intelligence artificielle est déjà capable d’imiter des voix, d’écrire des articles et de générer des images. Cela peut représenter une difficulté pour les consommateurs et consommatrices de médias.

C’est dans ce contexte que le secteur suisse des médias a présenté récemment un code commun sur l’intelligence artificielle. Celui-ci fixe des règles pour l’utilisation de l’IA. Il doit en outre garantir la transparence.

L’intelligence artificielle offre de nombreuses opportunités, explique Pia Guggenbühl, directrice de l’association des éditeurs de médias suisses. Mais, souligne-t-elle, il ne faut pas oublier que «la confiance est le bien le plus précieux des médias».

Pia Guggenbühl

Directrice de l’association des éditeurs de médias suisses

Pia Guggenbühl est directrice de l’association des éditeurs de médias suisses depuis février 2025. Auparavant, elle était responsable des affaires publiques et de la communication ainsi que membre de la direction de Scienceindustries, l’association économique des industries suisses de la chimie, de la pharmacie et des sciences de la vie.

Dans le contexte de l’intelligence artificielle, cette confiance prend encore plus d’importance.

Des règles du jeu communes

C’est pourquoi divers médias, associations et maisons d’édition suisses se sont mis d’accord sur des règles du jeu communes et ont élaboré un code pour l’utilisation de l’IA. L’un de ses éléments centraux porte sur la nécessité pour les entreprises de médias d’être transparentes sur la manière dont elles utilisent l’intelligence artificielle.

Plus

Une femme sur fond bleu-vert

Plus

Démographie

«Avec l’IA, à quoi ressemble notre avenir?» Nous avons posé la question à l’assistant IA de Google

Ce contenu a été publié sur

01 mai. 2026

Après quelques relances, le modèle de langage (LLM) de Google, Gemini, a fini par dresser un tableau peu réjouissant du monde du travail du futur. Entretien.

lire plus «Avec l’IA, à quoi ressemble notre avenir?» Nous avons posé la question à l’assistant IA de Google

En outre, les systèmes d’IA doivent être signalés lorsqu’ils génèrent des contenus complets. Pia Guggenbühl souligne que les collaborateurs et collaboratrices qui utilisent des systèmes d’IA, ou qui traitent leurs résultats, ont été soigneusement formés à leur utilisation.

Si un utilisateur ou une utilisatrice constate à l’avenir une violation du code de l’IA, il ou elle doit pouvoir la signaler. Pour ce faire, toutes les entreprises de médias doivent mettre en place des services internes de signalement de l’intelligence artificielle.

En outre, le secteur prévoit de créer, comme deuxième instance, un service de médiation indépendant en matière d’IA. Ce dernier serait compétent pour les cas graves ou pouvant être résolus à l’amiable. Mais il ne pourrait pas prononcer de sanctions, ce qui le rend déjà quelque peu bancal.

Pia Guggenbühl déclare à ce sujet que le code vise à l’autorégulation et non à la sanction. «Toutefois, les infractions seront effectivement publiées par l’organe de médiation et il en résultera naturellement un certain effet de signal», explique la directrice de l’association des éditeurs Schweizer Medien.

«Le secteur ne veut pas attendre»

Lors de l’élaboration du code de l’intelligence artificielle, le secteur des médias s’est inspiré en premier lieu de la Convention sur l’intelligence artificielle du Conseil de l’Europe. Le Conseil fédéral veut lui aussi ratifier prochainement cette même convention, ce dont l’association des éditeurs se félicite.

Quatre principes et une obligation de signalement claire

Dans son communiqué de presse, Susanne Wille, directrice générale de la SSR, déclare: «Il est essentiel que les citoyennes et citoyens suisses puissent se fier aux médias suisses. Avec le code de l’IA, nous créons la base commune pour que l’utilisation de l’intelligence artificielle reste transparente et compréhensible.»

Hanspeter Kellermüller, directeur général de l’agence Keystone-ATS, explique: «Le code de l’IA s’appuie sur quatre principes: Connaissance des utilisateurs, protection des processus démocratiques, protection des données et transparence. Tout cela crée la confiance sur le marché de la communication.» En outre, des obligations de signalement s’appliquent avec le code de l’IA.

«Le secteur ne veut pas attendre, nous prenons les devants», souligne Pia Guggenbühl. Le code de l’IA n’est pas un document achevé, mais pourrait être modifié ou complété dans les mois et années à venir. L’évolution de l’IA est fulgurante, explique Pia Guggenbühl. Les conditions cadres pour le secteur des médias évoluent donc elles aussi en permanence, relève-t-elle.

Le lien vers le code de l’IA pour le secteur suisse des médiasLien externe

Traduit de l’allemand à l’aide de l’IA/ptur

Voici comment nous traduisons à l’aide de l’IA

Pour certains contenus, nous utilisons des outils de traduction automatique tels que DeepL et Google Translate. 

Chaque article traduit est ensuite vérifié en détail par un journaliste afin d’en garantir l’exactitude du contenu. L’utilisation d’outils de traduction nous permet de consacrer davantage de temps à la rédaction d’articles approfondis.

Découvrez ici comment nous travaillons avec l’IA.

Articles mentionnés