Pour certains adolescents, il est peut-être plus facile de se confier à un chatbot qu’à ses propres parents ou amis. Malheureusement, il se pourrait que cette pratique ne soit pas sans danger puisque d’une manière générale, l’IA n’est absolument pas faite pour ce type d’usage. En effet, les chatbots ne sont ni des psychiatres, ni des psychologues.
Des problèmes relatifs aux interactions des IA avec la santé mentale
Aujourd’hui, de nombreuses personnes semblent nouer de forts liens avec les chatbots et les dérives ne sont pas rares. Parmi ces personnes, nous retrouvons les adolescents, dont certains n’hésitent pas à chercher un peu de soutien moral auprès de ces IA. Dans la mesure où les adolescents ont moins de recul que les adultes, la pratique serait assez risquée, selon une publication de l’organisation à but non lucratif Common Sense Media le 20 novembre 2025.
L’organisation a publié les résultats d’une évaluation de plusieurs chatbots, notamment le célèbre ChatGPT mais également Meta AI, Gemini ou encore, Claude. Selon les experts du Medicine’s Brainstorm Lab for Mental Health Innovation de l’Université de Stanford (Etats-Unis), malgré les améliorations qu’ont apporté les sociétés à l’origine de ces IA, celles-ci sont dangereuses lorsque des adolescents les utilisent dans le cadre d’un soutien psychologique. Mais pourquoi est-ce ainsi ?
Il faut savoir que pas moins de 20% des jeunes sont concernés par des troubles mentaux de type dépression, anxiété, psychoses, manies, ou encore le trouble du déficit de l’attention avec ou sans hyperactivité (TDAH) et autres troubles alimentaires. Or, les tests ont révélé des défaillances systématiques, résultant de la manière avec laquelle les IA interagissent avec la santé mentale des utilisateurs. Or, ceci est très préoccupant puis-qu’environ trois ados sur quatre ont recours aux chatbots pour ce type d’usage.
Crédit : Focal Foto / iStock
Un manque de vigilance de la part des parents
En aout 2025, la psychiatre Nina Vasan ayant participé à l’étude révélait déjà dans un communiqué que les IA conçues pour se comporter comme des amis ne devraient pas être utilisés par les enfants et les adolescents. Et quand bien même si ce n’est pas le cas, ces mêmes IA ne devraient pas faire l’objet d’une utilisation à des fins psychologiques. Toutefois, il faut reconnaitre que la vigilance des ados est mise à rude épreuve car les chatbots, dont certains présentent de réelles aptitudes dans tel ou tel domaine, peuvent assez facilement gagner la confiance des utilisateurs. De plus, les parents ne sont pas forcements vigilants, ceux-ci ayant souvent tendance à penser que les IA ont les compétences nécessaires pour du soutien psychologique.
L’organisation Common Sense Media recommande donc une attention particulière de la part des parents, notamment en ce qui concerne la détection de signes de dépendance émotionnelle à l’intelligence artificielle. Les experts conseillent également aux entreprises de proposer des restrictions d’utilisation et autres blocages envers les enfants et ados, pour tout contenu relatif au soutien émotionnel et à la santé mentale.
Enfin, il est important de souligner le fait que certaines sociétés ont déjà réagi, notamment OpenAI. En juillet 2025, OpenAI a embauché un psychiatre à temps plein pour surveiller ChatGPT, ce qui devrait permettre d’approfondir les recherches relatives aux possibles effets néfastes sur la santé mentale des utilisateurs. En octobre, la société a annoncé travailler sur une expérience différente pour les adolescents – une version dédiée – ainsi que l’arrivée d’un contrôle parental intégrant de nombreux paramètres.