En Suisse alémanique, des adolescents ont créé des images dénudées par IA de leurs camarades de classe. L’incident suscite l’effroi et questionne sur les mesures préventives à mettre en place.

Tantôt amusantes, tantôt utiles, tantôt dangereuses. Les applications d’IA pénètrent de plus en plus la vie quotidienne pour le meilleur et pour le pire. Une enquête du « Tages-Anzeiger » révèle que dans une école suisse alémanique, des garçons âgés de 12 à 14 ans ont créé des images dénudées par IA de leurs camarades de classe et les ont partagées sur les réseaux sociaux. Les adolescents ont créé gratuitement ces deepfakes sur un site internet.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Graves conséquences pour les victimes

Le « Tages-Anzeiger » ne mentionne volontairement pas dans quelle école secondaire l’incident s’est produit l’an dernier – les jeunes filles concernées doivent être protégées. Le Ministère public a entre-temps ouvert une procédure. Dagmar Rösler, présidente de la fédération faîtière des enseignantes et enseignants suisses – LCH, se dit profondément affectée par ce cas. Être victime de tels deepfakes déclenche « un grand sentiment d’impuissance, un sentiment d’être exposé. Et on ne peut rien faire contre ».

Ce n’est que depuis quelques années qu’il est possible de créer des photos dénudées par IA d’apparence réaliste. Les écoles et le corps enseignant doivent s’adapter à une technologie qui progresse à une vitesse incroyable. Dagmar Rösler explique que « cela ne cesse d’évoluer » et admet: « Parfois, on est exposé à cette évolution et on est impuissant ». La présidente du LCH est convaincue que les écoles font ce qui est en leur pouvoir. Le thème du cyberharcèlement fait déjà l’objet d’une sensibilisation dès le plus jeune âge et on explique aux enfants ce qui est autorisé et ce qui ne l’est pas. « Le problème, c’est que nous avons affaire à une cible mouvante ».

La politique doit-elle en faire davantage?

Il n’existe pas de recette miracle pour faire face à cette évolution. En fin de compte, le cadre juridique pour les fournisseurs d’IA relève aussi de la politique et des gouvernements du monde entier.

Il y a quelques semaines à peine, xAI, la société d'intelligence artificielle d'Elon Musk, a restreint l'utilisation de son chatbot suite à un scandale impliquant des images à caractère sexuel. [KEYSTONE - FAZRY ISMAIL] Il y a quelques semaines à peine, xAI, la société d’intelligence artificielle d’Elon Musk, a restreint l’utilisation de son chatbot suite à un scandale impliquant des images à caractère sexuel. [KEYSTONE – FAZRY ISMAIL]

Dans une prise de position, le LCH exige des mesures de protection légales clairement définies. Les Chambres fédérales discutent actuellement de mesures pour permettre de mieux protéger les enfants et les adolescents contre les deepfakes.

Les parents ont un rôle à jouer

La présidente du LCH conseille aux enseignantes et enseignants de se tenir au courant des dernières évolutions et de se former aux dangers de l’IA: « De plus, il est très important de toujours rester en contact avec les parents ». Le LCH demande également que la compétence médiatique des parents soit renforcée par des offres de conseil et de formation continue. Car ils ont une fonction d’exemple pour leurs enfants en ce qui concerne l’utilisation des médias numériques et de l’IA.

Les plateformes et la politique doivent prendre des mesures de protection – par des vérifications d’âge par exemple

Dagmar Rösler, présidente de la fédération faîtière des enseignantes et enseignants suisses

« Nous devons nous informer », estime la présidente du LCH, « même si les adultes ne peuvent jamais savoir tout ce que les jeunes font avec leurs téléphones portables ». Selon elle, une interdiction des téléphones portables dans les écoles ne résoudrait pas le problème. Car les deepfakes, comme dans l’incident mentionné, sont probablement produits en grande partie pendant les loisirs.

Les écoles ont certes une responsabilité, conclut Dagmar Rösler. « Mais les plateformes et la politique sont également sollicitées pour prendre des mesures de protection – avec des vérifications d’âge par exemple », ajoute-t-elle.

Contenu externe

Ce contenu externe ne peut pas être affiché car il est susceptible de collecter des données personnelles. Pour voir ce contenu vous devez autoriser la catégorie Services Tiers.

Accepter Plus d’info

Manuel Imhasly et Ivana Pribakovic (SRF)