Ne dévoilez peut-être pas vos secrets les plus profonds et les plus sombres à un chatbot IA. Vous n’avez pas à nous croire sur parole. Croyez-en l’homme qui est à l’origine du modèle d’IA générative le plus populaire du marché.

Sam Altman, PDG du fabricant de ChatGPT, OpenAI, a soulevé la question cette semaine lors d’une interview avec l’animateur Theo Von sur le podcast This Past Weekend. Il a suggéré que vos conversations avec l’IA devraient bénéficier de protections similaires à celles que vous avez avec votre médecin ou votre avocat. À un moment donné, M. Von a déclaré que l’une des raisons pour lesquelles il hésitait à utiliser certains outils d’IA était qu’il « ne savait pas qui allait avoir » ses informations personnelles.

« Je pense que c’est logique », a déclaré M. Altman, « il faut vraiment clarifier la question de la protection de la vie privée avant de l’utiliser à grande échelle, et clarifier la question juridique ».

De plus en plus d’utilisateurs d’IA traitent les chatbots comme leurs thérapeutes, leurs médecins ou leurs avocats, ce qui pose un sérieux problème de protection de la vie privée. Il n’y a pas de règles de confidentialité et les mécanismes réels de ces conversations sont étonnamment peu clairs. Bien entendu, l’utilisation de l’IA comme thérapeute ou confident pose d’autres problèmes, comme le fait que les robots peuvent donner de mauvais conseils ou renforcer les stéréotypes ou la stigmatisation.

M. Altman est manifestement conscient des problèmes qui se posent et semble au moins un peu troublé par la situation. « Les gens l’utilisent, surtout les jeunes, comme un thérapeute, un coach de vie, j’ai des problèmes relationnels, que dois-je faire ? « À l’heure actuelle, si vous parlez de ces problèmes à un thérapeute, à un avocat ou à un médecin, vous bénéficiez d’un privilège légal.

La question a été soulevée au cours d’une partie de la conversation sur la nécessité d’établir davantage de règles ou de réglementations en matière d’IA. Les règles qui étouffent les entreprises d’IA et le développement de la technologie ont peu de chances de gagner la faveur de Washington ces jours-ci, puisque le plan d’action sur l’IA du président Donald Trump, publié cette semaine, a exprimé le souhait de moins réglementer cette technologie, et non de la réglementer davantage. En revanche, les règles visant à les protéger pourraient trouver un écho favorable.

M. Altman semblait surtout préoccupé par l’absence de protections juridiques pour les entreprises comme la sienne, afin d’éviter qu’elles ne soient contraintes de divulguer des conversations privées dans le cadre de poursuites judiciaires. OpenAI s’est opposée aux demandes de conservation des conversations des utilisateurs dans le cadre d’un procès avec le New York Times sur des questions de violation des droits d’auteur et de propriété intellectuelle. (Disclaimer: Ziff Davis, la société mère de CNET, a intenté en avril une action en justice contre OpenAI, alléguant qu’elle avait violé les droits d’auteur de Ziff Davis lors de l’entraînement et de l’exploitation de ses systèmes d’intelligence artificielle).

« Si vous parlez à ChatGPT des choses les plus sensibles et qu’il y a un procès ou autre, nous pourrions être obligés de produire ces informations », a déclaré M. Altman. « Je pense que c’est une erreur. Je pense que nous devrions avoir le même concept de confidentialité pour vos conversations avec l’IA que pour celles que vous avez avec votre thérapeute ou autre.

Faites attention à ce que vous dites à l’IA à votre sujet

Pour vous, le problème n’est pas tant qu’OpenAI puisse être amenée à divulguer vos conversations dans le cadre d’un procès. Il s’agit de savoir à qui vous confiez vos secrets.

William Agnew, chercheur à l’université Carnegie Mellon, qui faisait partie d’une équipe chargée d’évaluer les performances des chatbots face à des questions de type thérapeutique, nous a récemment confié que la protection de la vie privée était une question primordiale lorsqu’on se confiait à des outils d’IA. L’incertitude qui entoure le fonctionnement des modèles – et la manière dont vos conversations ne sont pas diffusées dans les chats des autres – est une raison suffisante pour hésiter.

« Même si ces entreprises essaient d’être prudentes avec vos données, il est bien connu que ces modèles régurgitent des informations », a déclaré M. Agnew.

Si ChatGPT ou un autre outil régurgite des informations issues de votre séance de thérapie ou des questions médicales que vous avez posées, ces informations pourraient apparaître si votre compagnie d’assurance ou quelqu’un d’autre s’intéressant à votre vie personnelle interroge le même outil à votre sujet.

« Les gens devraient vraiment penser davantage à la protection de la vie privée et savoir que presque tout ce qu’ils disent à ces robots de conversation n’est pas privé », a déclaré Mme Agnew. « Ces informations seront utilisées de toutes sortes de manières.