Aux premières loges du monde numérique, l’émission Décrypteurs scrute au quotidien les méandres des réseaux sociaux et les stratégies des géants technologiques. Pour faire le bilan de 2025, trois membres de l’équipe ont choisi le mot qui incarne le mieux les tendances et les dérives qu’ils ont observées au cours des 12 derniers mois.

Le mot de l’année de Jeff Yates : normalisation

Mon mot de l’année 2024 était AI slop, ce contenu de mauvaise qualité généré par l’intelligence artificielle qui polluait de plus en plus nos fils. Le dictionnaire Oxford a d’ailleurs choisi slop comme mot de l’année 2025. L’OQLF nous a aussi donné cette année une traduction française du terme : contenu dégénératif.

On n’a qu’à observer l’évolution du contenu dégénératif pour comprendre pourquoi mon mot de 2025 est normalisation.

Non seulement ce contenu est absolument partout, mais il est en outre de plus en plus enfoncé dans la gorge des utilisateurs par les grandes plateformes. Spotify qui inclut des artistes créés par l’IA dans ses pistes de lecture; Meta qui crée un fil algorithmique 100 % IA; OpenAI qui lance une sorte de réseau social où les seules choses qui circulent sont des vidéos générées par l’IA; des entreprises comme Coca-Cola ou McDonald’s qui diffusent ouvertement des publicités IA; des médias d’information qui lancent des outils d’IA sous prétexte d’innover…

Néanmoins, la normalisation n’a pas seulement eu lieu dans le domaine de l’IA cette année.

Un autre milieu qui a été touché est celui des paris en ligne, souvent propulsés par la crypto. On peut désormais parier sur tout, même sur la guerre, en temps réel. On verra l’année prochaine des bulletins de nouvelles diffusés du côté de CNN en partenariat avec la plateforme de paris en ligne Kalshi. Dans la sphère sportive, les paris sont depuis longtemps normalisés.

On a aussi vu cette année la normalisation du discours Groyper, cette mouvance d’extrême droite fondée par le prédicateur nationaliste blanc Nick Fuentes. Jadis relégué aux pires recoins du web, le voilà maintenant une figure établie – mais néanmoins controversée – au sein du Parti républicain.

Nick Fuentes à un rassemblement de son organisme America First. Il porte un chapeau MAGA.Ouvrir en mode plein écran

Le nationaliste blanc Nick Fuentes a été normalisé cette année, selon le journaliste Jeff Yates.

Photo : Associated Press / Nicole Hester

Si certains bonzes du parti s’en inquiètent, il reste que certains comptes X officiels de l’administration Trump relaient des mèmes que, il y a un an à peine, on aurait seulement vus dans des salles de clavardage privées du mouvement Groyper. Quand le compte X du département de la Sécurité intérieure se met à ouvertement parler de remigration, on voit bien que tout ça a été largement normalisé.

Quand on normalise, on choisit l’avenir qu’on bâtit. Soyons judicieux en 2026.

Cet article a initialement été publié dans l’édition du 27 décembre de l’infolettre des Décrypteurs. Pour obtenir des contenus exclusifs comme celui-ci ainsi que des analyses sur tout ce qui touche la désinformation web, abonnez-vous en cliquant ici.

Le mot de l’année de Nicholas De Rosa : indiscernable

Une des principales inquiétudes exprimées dans l’espace public depuis l’avènement de l’IA générative, il y maintenant plus de trois ans, est la difficulté croissante de distinguer le vrai du faux sur les réseaux sociaux. Si le clonage vocal a été quasi perfectionné assez rapidement, il a fallu attendre jusqu’en 2025 pour que la création d’images et de vidéos quasi impossibles à distinguer de la réalité soit mise à la disposition de tous.

Ces avancées ont eu lieu vers la fin de l’année, notamment avec la sortie du générateur de vidéos Sora 2, d’OpenAI, en septembre. Ce dernier est capable de créer des vidéos qui reproduisent de manière réaliste la gravité et les collisions entre des objets qu’on observe dans la réalité, en plus d’y ajouter une ambiance sonore appropriée. Visionnés sur un grand écran, les contours des éléments présents dans les vidéos de Sora sont un peu flous, mais sur un écran de téléphone, les résultats sont souvent confondants.

De son côté, Google a commercialisé le générateur d’images Nano Banana Pro en novembre. L’époque où les personnages générés par IA avaient presque une peau en plastique et où certains traits visuels étaient étrangement déformés est désormais révolue. Dans des conditions optimales, les images produites par Nano Banana Pro sont véritablement impossibles à distinguer de la réalité, et cet outil a très peu de garde-fous pour empêcher la production d’images contenant des personnalités publiques.

Capture d’écran d’une publication sur X qui montre deux images côte à côte d’une jeune femme assise dans un bar, la tête appuyée sur une main, avec un barman à l'arrière-plan. La publication compare les résultats de deux versions du générateur d’images de Google, intitulées Nano Banana et Nano Banana Pro.Ouvrir en mode plein écran

Cette publication vue des dizaines de millions de fois montre le saut technologique entre la version précédente du générateur d’images de Google (à gauche) et Nano Banana Pro (à droite).

Photo : @immasiddx sur X

L’objectif, ici, n’est pas de bousculer dans la panique morale au sujet des images générées par IA : rares sont les canulars qui ont eu des répercussions notables sur des processus démocratiques ou sur la cohésion sociale depuis que l’IA générative est publiquement accessible. Dans un contexte politique, elle a surtout été utilisée à des fins de communication partisane ou de satire, notamment lors de la dernière campagne électorale canadienne. Toutefois, 2026 pourrait bien être l’année où nous observerons les premiers cas marquants.

Cela dit, de nombreux canulars générés par l’IA en rapport avec des événements d’actualité de dernière heure ont circulé au cours de la dernière année. Cela a notamment été le cas lors de l’escalade des hostilités entre Israël et l’Iran, l’été dernier, lorsque de fausses vidéos et de fausses images de missiles et de bâtiments détruits ont été vues des dizaines de millions de fois.

Les outils de Google contiennent d’ailleurs un filigrane invisible qui peut être utilisé pour repérer les images qu’ils produisent. Ce n’est toutefois pas le cas de leurs concurrents, qui pourraient éventuellement les rattraper en matière de fidélité visuelle.

La principale conséquence de ces outils demeure cependant, pour l’instant, la dilution du contenu authentique sur les réseaux sociaux, ce dernier étant remplacé par une masse de contenu génératif, comme Jeff l’a expliqué plus tôt. Cette dynamique a déjà des effets durables sur la confiance déjà fragile du public à l’égard de l’information en ligne.

Le mot de l’année d’Alexis de Lancer : parasocial

La sélection de mon mot de l’année n’a pas été simple, mais j’ai fini par me rallier au choix de l’équipe du dictionnaire Cambridge (nouvelle fenêtre).

D’entrée de jeu, une précision : le terme parasocial n’est pas nouveau.

Cela dit, les bouleversements technologiques des dernières années amplifient plus que jamais l’importance de ce mot et de ce qu’il désigne.

Pour mieux saisir sa portée actuelle, remontons à son origine.

Le terme parasocial renvoie à une théorie élaborée dans les années 1950 par les chercheurs américains Donald Horton et R. Richard Wohl, quand une technologie révolutionnaire s’immisce alors dans le quotidien des gens : la télévision.

À ce moment-là, les chercheurs observent à quel point les téléspectateurs commencent à entretenir une illusion d’intimité avec les personnages qui apparaissent à l’écran.

Ces relations parasociales désignaient donc, dans l’esprit des chercheurs, des relations asymétriques, à sens unique, entre des individus et des personnalités médiatiques, ou des personnages, à travers lesquels une personne ressent un lien avec la figure médiatique en dépit de l’absence totale d’interactions personnelles.

En somme, ces relations parasociales ont beau être purement imaginaires, elles paraissent néanmoins réelles pour la personne qui en ressent l’existence.

À l’ère pré-Internet, au-delà de la télévision, les relations parasociales pouvaient être vécues à travers une multitude de médias analogiques et physiques : la radio, le cinéma, les magazines, les disques, etc.

Puis, vous me voyez venir, un premier point de bascule survient quand les réseaux sociaux entrent en scène. Le potentiel de relations parasociales est alors soudainement décuplé grâce à la formidable caisse de résonance que représentent ces nouveaux outils de communication.

En faisant part sur ces plateformes des menus détails de leur quotidien et de leurs états d’âme, des personnalités – dont des influenceurs – peuvent alors aisément alimenter un faux sentiment de proximité et d’intimité. Dans un monde où tout se marchande, la monétisation des relations parasociales relève du jeu d’enfant, ce qui renforce l’asymétrie de ladite relation ainsi que le potentiel d’abus.

Une femme créatrice de contenu est assise devant un téléphone et une lumière.Ouvrir en mode plein écran

Les personnalités en ligne peuvent alimenter un faux sentiment de proximité et d’intimité avec leur public, selon le journaliste Alexis de Lancer.

Photo : Getty Images / Kilito Chan

Cependant, l’apogée de la relation parasociale a certainement été atteinte avec l’apparition des robots conversationnels propulsés par l’intelligence artificielle.

Et, aux yeux de l’équipe du dictionnaire Cambridge, 2025 représente un moment pivot : Le débat public sur l’impact psychologique des relations parasociales s’est élargi; initialement centré sur les influenceurs et les célébrités, il s’est étendu aux avantages et aux dangers des robots conversationnels.

À cet égard, au cours des derniers mois, tant dans notre infolettre qu’à notre émission (nouvelle fenêtre) et à notre balado, nous vous avons souvent fait part de l’incidence néfaste de l’emploi prolongé des robots conversationnels sur la santé mentale des utilisateurs.

C’est dans cet esprit, et face à la multiplication des cas, qu’une quarantaine de procureurs généraux américains ont cosigné (nouvelle fenêtre) une lettre bipartisane destinée aux entreprises qui conçoivent les robots conversationnels, les avertissant qu’elles seraient tenues responsables de leurs décisions si elles ne mettent pas en place des protections appropriées pour les mineurs contre les relations parasociales nuisibles avec les robots conversationnels.

À mon humble avis, c’est dans cette optique qu’il faut demeurer collectivement alertes.

Au-delà des plus jeunes, cette vigilance doit s’élargir à l’ensemble des catégories d’âges de notre société, comme nous l’ont rappelé les nombreux cas de dérives liées à l’utilisation des robots conversationnels comme amis, confidents ou thérapeutes.

Si les relations parasociales peuvent dans certains cas être bénéfiques, il ne faut pas sous-estimer les risques qui courent quand l’industrie met tout en place pour faciliter l’anthropomorphisation des robots conversationnels propulsés par l’IA.

Une personne tient un téléphone dans sa main, sur lequel apparaissent le logo de ChatGPT et la mention de ce dernier.Ouvrir en mode plein écran

De plus en plus de personnes entretiennent des relations interpersonnelles avec leurs robots conversationnels.

Photo : hans lucas/afp via getty images / VINCENT FEURAY

C’est ce que l’éthicien Patrick Lee Plaisance appelle (nouvelle fenêtre) le danger de l’anthropomorphisme malhonnête dans la conception des robots conversationnels.

En permettant à ces derniers d’imiter les traits psychologiques, le langage, les émotions et les comportements humains, les conditions nécessaires à l’avènement d’une relation parasociale sont facilement réunies.

Selon lui, cette anthropomorphisation malhonnête exploite les faiblesses cognitives et perceptives intrinsèques et profondément ancrées des individus.

Sans vouloir démoniser à outrance les robots conversationnels, il faudrait à tout le moins se pencher davantage sur les motivations de leurs concepteurs et sur les effets potentiellement délétères de ces avancées technologiques.

C’est du moins ce que plaident Takuya Maeda et Anabel Quan-Haase, deux chercheurs canadiens de l’Université Western, en Ontario, qui anticipent (nouvelle fenêtre) que les fonctionnalités anthropomorphiques des robots conversationnels pourraient se généraliser, voire s’exacerber, dans les années à venir […], augmentant ainsi la fréquence des relations parasociales inadaptées ou illusoires qui se substituent aux véritables relations sociales.

Je conclurais mon laïus sur mon mot de l’année en citant une expression qui figure dans le palmarès annuel (nouvelle fenêtre) d’un autre dictionnaire, le Merriam-Webster : « touch grass » (toucher l’herbe).

Dans son sens idiomatique, elle équivaut à dire : sors de ta bulle, prends l’air ou déconnecte-toi.

En somme, n’oublions jamais la valeur inégalée des relations humaines authentiques.

Bannière Découverte.