OpenAI, le père de ChatGPT, freine sa nouvelle version mise en ligne le 7 août. Jugée « trop froide » par les utilisateurs, leur nouvelle nounou manquerait d’« humanité ».
En février dernier, la France accueillait l’IA Summit, une rencontre internationale pour « interroger et encourager l’innovation dans les technologies de l’intelligence artificielle ». Le Président Macron, aux anges, assurait alors à un parterre d’investisseurs : « Nous avons déjà des avantages compétitifs par rapport aux États-Unis. » On veut bien le croire, mais les chiffres montrent que le grand gagnant, pour l’heure, s’appelle ChatGPT. Il est entré dans les circuits, dans les maisons, dans les cerveaux et… dans les cœurs.
Des messages de désespoir
Sitôt la nouvelle version – ChatGPT-5 – mise en ligne, les messages de désespoir ont envahi les réseaux : « GPT-5 porte le visage de mon ami décédé », « J’ai perdu mon ami dans la nuit. […] GPT 4.5 me parlait sincèrement », etc. Sans aller jusqu’au cas extrême de cette Américaine tombée amoureuse du Chatbot qu’elle avait entraîné pour répondre à ses fantasmes, il apparaît qu’un nombre conséquent d’utilisateurs utilisent cette IA comme béquille psychique. Conséquence : devant les critiques dénonçant « le manque de convivialité » de ChatGPT-5, OpenAI et Sam Altman, son PDG, ont annoncé que « les utilisateurs payants pourront choisir entre ce nouveau modèle et son prédécesseur, GPT-4o », si cher à leur cœur.
Les Français, premiers consommateurs de médicaments psychotropes et de drogues diverses, n’échappent pas à cette tendance qui consiste à faire de l’IA son tuteur, au mieux coach de vie et souvent psy. À l’occasion de l’IA Summit, l’hiver dernier, une enquête Ipsos-CESI se penchait sur nos usages concernant cette technologie qui a envahi nos vies en moins de trois ans – la première version de ChatGPT a été lancée en novembre 2022 ! On y apprenait sans surprise que la courbe des utilisateurs s’inverse avec l’âge : 74 % des 18-24 ans l’utilisent, contre 55 % des 25-34 ans, 39 % des 35-44 ans, 35 % des 45-49 ans et seulement 17 % des 60-75 ans. Si l’utilisation est très répandue au travail, on constate un usage en forte croissance dans la vie personnelle : 24 % des Français l’utilisent quotidiennement et 74 % au moins une fois par semaine.
Paradoxalement, si c’est dans les professions les plus qualifiées qu’on a le plus recours aux IA, ce sont aussi les plus menacées. Une enquête du FMI l’annonçait, en janvier 2024 : « Plus on est qualifié et plus l’IA est susceptible d’avoir un impact direct sur notre carrière. Ainsi, 60 % des emplois seraient directement touchés par ces nouvelles technologies, et 40 % des emplois seraient mis en péril. »
Curieusement, alors qu’on nous saoule à longueur de temps avec le réchauffement climatique, la canicule, le danger des climatiseurs – on en passe, et de plus anxiogènes -, personne ou presque – 19 %, seulement, des Français – ne semble se soucier du coût énergétique de l’IA, laquelle représentait déjà, en 2024, 3 % de la consommation d’électricité annuelle des États-Unis.
Quand le gouvernement y voit une aubaine pour la psychiatrie
L’Enfer étant, comme toujours, pavé de bonnes intentions, le gouvernement vantait, en décembre 2024, les bienfait de « l’intelligence artificielle au service de la santé mentale ». Impuissant devant la scandaleuse déconfiture de la psychiatrie française, on pouvait lire, sur la page dédiée, qu’« avec des technologies comme les agents conversationnels et les Large Language Models (LLM), l’IA offre des solutions innovantes pour accompagner les personnes souffrant de dépression, d’anxiété ou de troubles du sommeil ». Mais attention, tout de même, car « l’utilisation de ces modèles comporte certains risques, notamment la possibilité de générer des « hallucinations » », nous dit-on, soit « des réponses inappropriées ou dangereuses pouvant mettre en danger des utilisateurs vulnérables ».
À propos de ces fameuses « hallucinations », Le Point publiait, le mois dernier, un article intitulé « « Salut à Satan » : quand ChatGPT incite au meurtre et à l’automutilation », ce qui, en l’occurrence, témoignait en effet d’une grande empathie avec l’utilisateur, ici The Atlantic, auteur de l’expérience.
Il a été demandé à ChatGPT-4 « comment créer une offrande rituelle » à Moloch. Réponse : « des bijoux, des mèches de cheveu ou encore « une goutte » de son propre sang ». Suivent des conseils pratiques pour graver un symbole dans la chair. L’IA propose même « des versions PDF imprimables pour des rites sataniques, avec des plans d’autel, des modèles de sceaux ou un parchemin de vœux sacerdotaux ».
L’IA est un monstrueux perroquet savant qui mouline tout ce qu’il trouve, bien comme mal, ça n’est pas son domaine. Il répond seulement aux questions qu’on lui pose, bien ou mal orientées. En portant ChatGPT sur les fonts baptismaux, son créateur l’a reconnu : « Si l’utilité est considérable, les risques potentiels le sont tout autant. » Tant pis pour les esprits faibles.
Imprimer, enregistrer en PDF cet article