Sur l’ensemble des participants interrogés aux États-Unis, environ deux tiers se montrent polis dans leurs interactions avec l’intelligence artificielle. Pour 55 % des sondés, c’est juste « une façon normale de procéder », mais pour environ 12 %, c’est une astuce, pour « être bien vu le jour où les robots se révolteront ». Le tiers restant, qui ne se montre pas particulièrement poli, l’est pour deux raisons. Par gain de temps, pour 20 % des personnes interrogées, et enfin simplement parce qu’il s’agit « d’une machine », pour 13 % d’entre eux.
Pour le New York Times, cette dépense énergétique en vaudrait la peine « culturellement parlant ». Interrogé par le média américain, Neil Johnson, professeur de physique à l’Université George Washington, indique que la façon de parler à ChatGPT peut se répercuter sur nos interactions humaines. Être poli avec Chat GPT nous pousserait à être tout aussi poli dans nos autres discussions dans la vraie vie.
Une tendance TikTok inquiète les médecins : « Voici le signe qui doit vous alerter »ChatGPT n’est pas votre thérapeute
Si certains sont juste polis, d’autres ont même tendance à considérer Chat GPT comme un ami et confient leurs problèmes personnels à l’intelligence artificielle, notamment en matière de santé mentale. Bien que l’IA puisse fournir des réponses empathiques ou rassurantes, plusieurs experts alertent que ChatGPT n’est ni formé à la psychothérapie, ni capable de gérer des situations de crise. « Il ne remplace pas un professionnel de santé mentale et son utilisation dans ce cadre peut être dangereuse », explique le quotidien anglais The Independant.
Une étude menée par le Georgia Institute of Technology a montré que lorsqu’on expose ChatGPT à des récits traumatiques, ses réponses deviennent moins cohérentes, plus génériques, voire confuses. L’IA semble « stressée », non pas émotionnellement puisqu’elle reste un ordinateur, mais techniquement. Traiter des émotions complexes dépasse ses capacités et plus une conversation est émotionnellement intense, plus les performances de l’IA se dégradent.
OpenAI reconnaît d’ailleurs dans un rapport que ChatGPT est parfois utilisé pour un soutien émotionnel, mais insiste qu’il ne doit pas remplacer un thérapeute. Même si certains utilisateurs trouvent du réconfort dans leurs échanges avec l’IA, celle-ci n’est ni consciente, ni compétente pour accompagner la souffrance humaine. L’entreprise recommande de ne pas confondre utilité conversationnelle et véritable soutien psychologique.