La mésaventure de Marcel Bucher met en lumière le contraste saisissant entre l’expertise académique et les lacunes en sécurité numérique élémentaire. Ce professeur a vu s’envoler en un éclat de seconde deux années cruciales de production intellectuelle, incluant des demandes de financement, des supports de cours et des brouillons d’articles scientifiques. En voulant légitimement refuser qu’OpenAI exploite ses données pour entraîner ses futurs modèles linguistiques, l’enseignant a déclenché une purge totale de son historique de conversations. Désespéré, il a tenté d’interpeller l’entreprise américaine, qui s’est contentée de lui opposer sa politique stricte de confidentialité, rendant toute récupération techniquement impossible.

ChatGPT
ChatGPT est le chatbot d’OpenAI, basé sur le modèle d’intelligence artificielle GPT, permettant de répondre à toutes sortes de questions ou requêtes. Disponible en version gratuite en ligne.
-
Licence :
Licence gratuite -
Auteur :
OpenAI -
Systèmes d’exploitation :
Windows 10 / 11, macOS Apple Silicon, Service en ligne, Android, iOS iPhone / iPad -
Catégorie :
IA
Le bouclier de la vie privée transformé en arme de destruction de données
Plus exactement, c’est en août dernier qu’il a désactivé l’option qui autorise OpenAI à utiliser ses données pour entraîner ses modèles d’IA. Une manipulation qui a provoqué la suppression de tout son historique de conversations.
On trouvait aussi bien des demandes de financement que des supports pédagogiques, des brouillons de publications. Tout a disparu en un instant.
La faillite du bon sens informatique face au mirage du stockage en ligne
Le chercheur a tout fait pour récupérer ses données et ses tentatives d’approcher OpenAI furent vaines. L’entreprise lui a rappelé le principe du « Privacy by Design », selon lequel les données sont effacées sans possibilité de les récupérer. Une politique de confidentialité conçue pour protéger les utilisateurs qui se retourne contre lui.
« Si un simple clic peut effacer de manière irrévocable des années de travail, ChatGPT ne peut pas, à mon avis, sur la base de mon expérience, être considéré comme totalement sûr pour un usage professionnel », déclare un peu naïvement Marcel Bucher dans la revue Nature.
Sauf que comme l’a montré un test de Notebookcheck, la désactivation du partage des données pour l’entraînement des modèles d’intelligence artificielle n’a pas supprimé les conversations déjà existantes. Alors qu’est-il arrivé à Marcel Bucher ? Bug ? Cas isolé ? Impossible de le dire.
Mais avant d’activer cette option, peut-être aurait-il dû télécharger une copie de ses données par simple précaution. En deux ans, en tant que professeur, penser à un backup local est la base.