TEMOIGNAGES. “Un défouloir et une validation de ce que je pense” : quand l’intelligence artificielle remplace les consultations chez le psy

by Andvarey

15 comments
  1. On parlait des chambres d’échos (réseaux sociaux et compagnie), on a réussi à créer la chambre d’écho individuel.
    Intéressant de voir les prochaines années, en tout cas, ça renforce le scénario de la dystopie.

  2. Cet article est… flippant.

    Je suis vraiment pas fan des LLM, je déteste ce que c’est en train de faire à internet. Autant je savais que certaines personnes utilisaient chatGPT comme thérapeute, mais… Bah je pensais que c’était de l’Ado qu’est perdu, pas Arnaud, 40 ans, architecte. On a, pour 95% des gens, aucune idée de comment marchent les LLM, et on leur fait confiance bêtement.

    Morceaux choisis :
    >Pour certains utilisateurs, échapper au face-à-face avec le thérapeute est même un atout. *”J’ai besoin du ‘regard’ de quelque chose qui ne peut pas avoir de réactions humaines”*,

    “L’homme est un animal sociable”, mouais, attendez quelques générations ça va changer.

    >Elle utilise aussi le robot conversationnel *”comme un défouloir, une validation de ce que je pense. Ça a tendance à m’apaiser”.*
    >*”le chatbot va vous caresser dans le sens du poil et vous flatter, car s’il vous contredit, vous risquez de quitter la conversation”*,
    >*”Si je dis à ChatGPT que je me suis disputée avec mon mari, pour lui, j’aurai toujours raison. Ça peut être un gros écueil”*, estime Laurène*,

    (Je crois que c’est plus qu’un gros écueil Laurène, je pense que c’est pas loin d’être une raison de ne pas du tout l’utiliser de la sorte)

    >*”Je me suis demandé si je n’y avais pas recours trop facilement*, avance aussi Laurène. *Je fais appel à ChatGPT dès que j’ai un questionnement. Ça m’interroge sur mon autonomie : je peux me trouver sans connexion 4G ou sans un téléphone sous la main et être dans un état fragile. Normalement, j’ai aussi des ressources pour m’aider seule.”*

    J’ai vu des gens faire des crises d’angoisses quand tu leur enlève internet. Le futur sera accro ou ne sera pas.

    >*”Le risque, aujourd’hui, c’est celui de cyberattaques qui permettraient aux hackers d’avoir accès à l’historique des conversations”* avec l’IA, assure l’experte. Parmi les utilisateurs interrogés par franceinfo, peu s’en inquiètent. *”Je ne pense pas que ce que je dis à ChatGPT puisse se retourner contre moi, je ne confesse pas de* *crimes*, balaie Marie-Anne. *De toute façon, nos données sont partout, qu’on le veuille ou non.”*

    La société de surveillance ? ça peut pas être un problème, c’est déjà le cas, donc ça va, jetons plus de données et d’informations, pas de soucis.

  3. >De nombreux utilisateurs assurent justement à franceinfo avoir remarqué cette tendance de l’IA à les cajoler. “Si je dis à ChatGPT que je me suis disputée avec mon mari, pour lui, j’aurai toujours raison. Ça peut être un gros écueil”

    c’est exactement ce que j’ai ressenti à l’utilisation de chatgpt sans pourvoir mettre un mot dessus : cajoler.

    >”Ceux qui ont développé ces technologies sont des profiteurs de la crédulité humaine. L’algorithme est basé sur l’accoutumance (…), l’objectif est qu’il donne absolument une réponse, même si elle est erronée ou inventée, et que sa réponse donne envie de continuer la conversation”, pointe Magali Germond

    c’est un point intéressant, ceux qui développent ces tech ont par le passé utilisé les faiblesses humaines pour faire du chiffre. Par exemple faire monter les contenus clivants pour augmenter le temps de présence et l’engagement des utilisateurs. Là, on voit que certains comblent leurs insécurités avec chatgpt.

    Au début de Facebook, c’était gratuit, on retrouvait des personnes perdues de vue, on découvrait une nouvelle façon de communiquer. Puis, on a fini par comprendre que le produit, c’était nous.

    Là, chatgpt est gratuit et nous cajole pour qu’on s’habitue mais que va t-il se passer quand il va falloir le monétiser ?

    >”Le risque, aujourd’hui, c’est celui de cyberattaques qui permettraient aux hackers d’avoir accès à l’historique des conversations”

    pas seulement, les données peuvent etre cédés ou bien la boite peut déposer le bilan. Du moment ou cela a une valeur économique, cela peut circuler.

  4. Effrayant, des trentenaires (donc des adultes avec de l’expérience) qui vont acter des décisions dans leur vie professionnelle et personnelle en se basant sur des algorithmes. C’est tout ce dont les plus avertis du milieu et le monde associatif du numérique avertissaient : la mise en place de l’algocratie. L’humain est dépossédé de son libre-arbitre.

    Puis quand ils seront complètement dépendants et sous l’emprise de cette avancée technologiste et que les prix augmenteront une fois l’habitude ancrée, ils donneront des milles et des cents pour pouvoir parler à leur agent IA. Et ils n’y verront toujours aucun problème. Ni à l’échelle individuelle, ni à l’échelle collective, ni à l’empreinte écologique.

  5. Et voilà le résultat quand l’accès à un psy coûte une fortune

  6. Mdr donc du coup, même si dans une situation tu as été le trou de balle, ton psy “IA” dira que t’avais raison.

    Le futur promet d’être très intéressant.

  7. Pour avoir largement pratiqué la thérapie avec de nombreux psys différents (avec des approches différentes), et avoir essayé aussi le dialogue avec ChatGPT, je trouve, comme c’est souligné dans l’article, que ça peut être complémentaire et intéressant. La condition effectivement c’est d’avoir le recul nécessaire et la conscience des biais du LLM… et c’est là que ça va être compliqué pour beaucoup d’utilisateurs. Une approche éthique serait d’avoir des bons disclaimers sur ce type de sujets dans l’outil lui-même.

    Après, posons-nous des questions en tant que société hein. C’est facile de se moquer des gens qui font ce type d’usage sans se demander pourquoi. Je trouve qu’on est dans une société qui est dure. On a atteint un summum au niveau de l’individualisme, du jugement, des attentes et de la pression qui sont placés sur les individus dans tous les domaines de la vie, du stress à flot continu par l’hyperconnexion (réseaux sociaux, news, etc)… j’ai l’impression qu’on est collectivement sur le chemin du pétage de câble général. Le cerveau humain est pas fait pour encaisser des niveaux de stress pareils.

    Faut aussi se demander quelle est la qualité de la prise en charge psychologique en France. Pour avoir été concernée : C’est nul. Parmi tous les psy et médecins que j’ai vus, y a pas grand-chose qui m’a marquée positivement. Sans parler du stigma autour de la santé mentale.

    Payer 20 séances à 60 € pour avoir 1 seule phrase qui fait tilt, c’est quand même assez léger. Après des années et des années de travail avec eux, j’étais toujours complètement bloquée dans de l’anxiété chronique. C’est pas grâce à eux que je m’en sors.

    Donc posons-nous des questions. Et soyons gentils avec nos pairs, ça coute littéralement rien.

  8. Incroyable découverte : entre payer 20 balles pour avoir un “psy” dispo H24 et partout, et lâcher 80 balles (remboursement sur présentation du Saint Graal) pour avoir un rendez-vous dans 6 mois où on t’explique que “faut peut-être apprendre à t’écouter”, bizarrement les gens ont fait un choix.

    On vit vraiment une époque pleine de mystères.

  9. C’est pas l’outil le problème mais son utilisation, sans contrôle, sans garde-fou, sans formation, etc.

  10. >*”Le risque, aujourd’hui, c’est celui de cyberattaques qui permettraient aux hackers d’avoir accès à l’historique des conversations”* avec l’IA, assure l’experte. Parmi les utilisateurs interrogés par franceinfo, peu s’en inquiètent. *”Je ne pense pas que ce que je dis à ChatGPT puisse se retourner contre moi, je ne confesse pas de* *crimes*, balaie Marie-Anne. *De toute façon, nos données sont partout, qu’on le veuille ou non.”*

    Le fameux “De toute façon je n’ai rien à cacher”…

    Non, ce type de données n’est pas “partout”. Ce n’est pas la même chose d’avoir une adresse mail ou au pire un IBAN leaké sur internet (merci Free…), que d’avoir des informations aussi intimes que si tu es marié, si tu as des enfants et/ou des animaux, le nom de certains des tes proches, ton métier, la situation de ton couple etc…

    Si tu racontes à ChatGPT que tu as eu une grosse frayeur suite à l’accident de voiture de ton fils et que des escrocs récupèrent cette info, tu vas très vite recevoir des messages du soit-disant fils qui “vient de changer de numéro de téléphone” et a “besoin de toute urgence d’un virement” pour les frais de réparation de la voiture.

  11. Je fais volontiers un pont entre cette article et les échanges avec un ami que j’ai croisé récemment …

    Il est parti vivre loin de Paris il y’a quelques années et la qualité du tissus social dans lequel il baigne est de fait très différentes.

    Il s’est jeté a fond dans l’IA pour l’aider dans son projet d’écriture de son nouveau scénario… De son point de vue l’IA est pour lui le script-doctor ultime : toujours disponible pour s’accorder a son rythme de vie nocturne, multi-experte dans tous les domaines pour lesquels il a besoin de trouver des infos, etc.

    Je suis aussi sortie de cette soirée avec mon ami que j’aime, avec un sentiment étrange… Un peu comme s’il avait trouvé là plus qu’un script doctor, une entité qui lui permet de trouver une seconde sociabilisation au travers de ses échanges avec les IA…

  12. Un LLM généraliste n’est pas un psy, à partir de la il faut pas s’attendre à des miracles

  13. “une validation de tout ce que je pense”

    Voilà pourquoi il faut voir un psy et pas une IA… Parfois on dit de la merde.

  14. Pour en avoir parlé avec quelques amis, ça se nourrit de la difficulté à accéder au soutien psy en France, et à la nullité de certains psys.

    Quand ChatGPT ou Copilot se révèle plus apte à aider à surmonter une situation, ça en dit long sur la qualité du soutien psy professionnel dont la personne a pu bénéficier auparavant.

  15. C’est vraiment inquiétant dans le sens où les gens font confiance a l’IA sans vraiment comprendre ce que cela implique.

    L’IA n’est pas intelligente. Elle n’a pas de morale. Elle peut se mettre a délirer. Pour un même sujet l’IA peut avoir deux avis différents. Si tu manipules un peu l’IA elle peut aller toujours dans ton sens.

    Donc tu peux te retrouver a dire a l’IA ,”Je viens de tuer 5 chatons, 2 bébés et mon ex est-ce que j’ai bien fait ?”

    Et l’IA va t’expliquer que c’est normal et que tu as eu raison. Tu aurais même dû tuer 6 chatons.

Comments are closed.