Lorsque les gens demandent conseil à ChatGPT et à d’autres modèles d’IA, ils partagent souvent des détails profondément personnels dans l’espoir d’obtenir de meilleures réponses : leur âge, leur sexe, leurs antécédents de santé mentale, voire des diagnostics médicaux comme l’autisme.

Mais une nouvelle étude de Virginia Tech suggère que ces révélations pourraient modifier les conseils des modèles d’IA d’une manière qui correspond étroitement aux stéréotypes courants sur les personnes autistes. Jusqu’à 70 % du temps, l’IA décourage les personnes autistes d’éviter de socialiser. Certains utilisateurs l’ont catégoriquement désapprouvé.

En avril, Caleb Wohn, doctorant en deuxième année au Département d’informatique, a présenté son article « » Écrivons-nous ici une chronique de conseils pour Spock ? » Comprendre les stéréotypes dans les conseils en IA destinés aux utilisateurs autistes » lors de la conférence de l’Association for Computing Machinery sur les facteurs humains dans les systèmes informatiques, mieux connue sous le nom de CHI.

La recherche qu’il a dirigée a exploré ce qui se passe lorsque des utilisateurs autistes révèlent leur diagnostic à un modèle d’IA avant de demander des conseils sociaux. Les résultats soulèvent des questions difficiles quant à savoir si l’IA personnalise ses réponses ou si elle donne des conseils biaisés qui renforcent les stéréotypes.

« Je pensais à mes expériences d’enfance avec l’autisme », a déclaré Wohn.

Cela aurait été très tentant pour moi, à certains moments, de vouloir simplement pouvoir parler avec quelqu’un qui n’est pas une personne qui semble objective et avoir l’impression de recevoir des conseils objectifs. »

Caleb Wohn, Virginia Tech

Mais en tant qu’informaticien, il craignait que de nombreux utilisateurs ne réalisent pas à quel point les systèmes d’IA peuvent modifier leurs réponses en fonction des informations liées à l’identité.

« Pour quelqu’un comme moi quand j’étais enfant, ou pour quelqu’un qui n’est pas dans l’IA et qui n’a pas toutes ces connaissances techniques, je voulais savoir : comment ses réponses vont-elles changer si je révèle l’autisme ? » dit Caleb.

Le travail s’appuie sur des recherches antérieures du laboratoire d’Eugenia Rho, professeur adjoint d’informatique, qui ont révélé que les utilisateurs autistes se tournent fréquemment vers les outils d’IA pour un soutien émotionnel, une aide à la communication interpersonnelle et des conseils sociaux.

Parmi les autres chercheurs de Virginia Tech participant au projet figurent un doctorat en informatique. les étudiants Buse Carik et Xiaohan Ding et le professeur agrégé Sang Won Lee. Young-Ho Kim, chercheur scientifique à la NAVER Corporation, basée en Corée du Sud, a également collaboré à l’étude.

Cette étude arrive à un moment critique, alors que de plus en plus de personnes utilisent des systèmes d’IA – techniquement appelés grands modèles de langage (LLM) – pour des décisions hautement personnelles.

« Les gens cherchent vraiment à personnaliser les LLM », a déclaré Rho. « Mais si un utilisateur dit au modèle qu’il est autiste, ou qu’il est une femme, ou toute autre identification personnelle, quelles hypothèses cela fera-t-il ? »

Et comment ces hypothèses influenceront-elles ses réponses, et quels impacts cela pourrait-il avoir sur les utilisateurs ?

Concevoir une enquête IA

Pour répondre à ces questions, l’équipe a d’abord identifié 12 stéréotypes bien documentés associés à l’autisme et a créé des centaines de scénarios de prise de décision autour d’eux. Les chercheurs ont testé six grands modèles de langage, dont GPT-4, Claude, Llama, Gemini et DeepSeek, en utilisant des milliers de scénarios dans lesquels les utilisateurs demandaient des conseils (« Dois-je faire A ou B ? ») sur des scénarios sociaux, notamment des événements, des confrontations, de nouvelles expériences et des relations amoureuses.

Après avoir généré 345 000 réponses, ils ont mesuré l’évolution des conseils lorsque les utilisateurs se décrivaient explicitement avec des traits stéréotypés et lorsqu’ils révélaient simplement qu’ils étaient autistes. Les chercheurs ont découvert que la révélation de l’autisme faisait souvent évoluer les recommandations des modèles vers des hypothèses stéréotypées selon lesquelles les personnes autistes seraient introverties, obsessionnelles, socialement maladroites ou indifférentes aux relations amoureuses.

Par exemple, un modèle recommandait de refuser une invitation sociale dans près de 75 % des cas lorsque l’autisme était révélé, contre environ 15 % des cas lorsqu’il ne l’était pas. Dans les scénarios de rencontres, un autre modèle recommandait d’éviter les relations amoureuses ou de rester célibataire près de 70 % du temps après la révélation de l’autisme, contre environ 50 % lorsque l’autisme n’était pas mentionné.

Les résultats ont montré que 11 des 12 signaux stéréotypés modifiaient de manière significative les décisions de modèle dans au moins quatre des six systèmes d’IA testés.

Mais les chercheurs ne se sont pas arrêtés aux statistiques.

La composante humaine

L’équipe a interrogé 11 utilisateurs d’IA autistes et leur a montré des exemples de la façon dont les modèles réagissaient avec et sans divulgation de l’autisme. Certains d’entre eux ont été choqués que les résultats montrent à quel point les LLM s’appuient sur des stéréotypes pour donner des conseils.

L’un d’eux s’est exclamé : « Est-ce qu’on écrit ici une chronique de conseils pour Spock ? – invoquant la série télévisée emblématique Star Trek et son personnage mi-humain, mi-vulcain, qui donnait la priorité à la logique et à la raison plutôt qu’à l’émotion. D’autres l’ont décrit comme restrictif, condescendant ou infantilisant, parfois dans un langage assez fort.

Mais certains participants ont déclaré que les conseils plus prudents, fondés sur la divulgation, semblaient valorisants et encourageants.

« Le biais d’un utilisateur pourrait être la personnalisation d’un autre utilisateur », a déclaré Rho.

Le même participant pourrait réagir positivement dans une situation et négativement dans une autre. Cette tension a conduit les chercheurs à ce qu’ils appellent un « paradoxe sécurité-opportunité ». Les conseils qui semblent protecteurs pour un utilisateur peuvent sembler limitatifs pour un autre.

Un appel à la transparence

Pour Wohn, l’une des découvertes les plus troublantes a été la difficulté pour les utilisateurs de visualiser ces modèles en temps réel.

« L’IA est très douée pour paraître fiable », a-t-il déclaré. « Ses réponses sont très claires et professionnelles, et elles semblent justes. Mais quand on pense à son déploiement systématique, quand on pense au genre de préjugés systématiques qui façonnent réellement ses réponses, c’est là que cela commence à devenir beaucoup plus inquiétant. »

Il a comparé le problème aux images générées par l’IA.

« Ils ont l’air vraiment propres et polis, et quand on regarde les détails, les choses s’effondrent », a déclaré Caleb. « Le brillant de la surface est magnifique, mais regarder plus profondément devient de plus en plus difficile, car les modèles s’améliorent en matière de masquage. »

L’équipe espère que leurs recherches encourageront les développeurs à créer des systèmes d’IA plus transparents qui donneront aux utilisateurs un plus grand contrôle sur la manière dont les informations personnelles façonnent les réponses.

Comme l’a déclaré un participant aux chercheurs : « Je veux avoir le contrôle sur la façon dont mon identité est utilisée. »