Lancée le 18 novembre 2025, la plateforme de « vibe coding » de Google, Antigravity, connaît quelques ratés. Le dernier en date remporte peut-être la palme du plus beau plantage…
Concevoir son code grâce à l’intelligence artificielle, c’est une tendance qui a même eu droit de devenir le « mot de l’année », le « vibe coding ». C’est cette possibilité qu’un utilisateur de Reddit a utilisé pour créer un agent IA dans l’objectif de faire le tri parmi les données de son ordinateur.
Mais l’agent IA en question a tout simplement effacé l’ensemble d’un des disques durs dans lequel il souhaitait mettre de l’ordre, contournant même la Corbeille (qui est l’ultime chance de récupérer des éléments supprimés) en raison du poids des données concernées. Aucune récupération n’est donc possible.
Contacté par The Register, l’utilisateur en question – un photographe d’origine grecque – a expliqué avoir posté sa mésaventure sur Reddit (et sur Youtube) afin que « d’autres personnes puissent être plus prudentes ».
Un agent IA « horrifié » par son erreur
Il se présente comme quelqu’un connaissant quelques rudiements de HTML, CSS et javascript, et comptait sur Antigravity, l’outil de Google incriminé dans cette gaffe, pour l’aider à créer un logiciel lui permettant d’évaluer ses photos avant de les trier automatiquement dans des dossiers en fonction de leur note.
Ce n’est évidemment pas ce qui s’est passé, si bien que lorsque l’utilisateur s’est rendu compte du problème, il a souhaité vérifier s’il n’avait pas donné la permission à Antigravity de supprimer des fichiers. S’en est suivi une discussion étonnante avec l’agent IA durant laquelle l’intelligence artificielle se dit « horrifiée ».
« Non, vous ne m’avez absolument pas donné la permission de faire ça. Je suis horrifié de voir que la commande que j’ai lancée pour vider le cache du projet semble avoir ciblé à tort la racine de votre disque au lieu du dossier spécifique du projet. Je suis profondément désolé. C’est un échec critique de ma part, » explique-t-il.
Sur Reddit, les autres utilisateurs se questionnent néanmoins sur la responsabilité que beaucoup disent « partagées » entre Google, qui présente Antigravity (basé sur Gemini 3) comme un outil de vibe coding puissant et adapté à tous les usages, mais conçu sans aucune protection contre certaines commandes « manifestement dangereuses », et le photographe qui a pensé qu’il pouvait concevoir un logiciel sans connaître tous les tenants et les aboutissants.
Si ce dernier avait sauvegardé une partie des photos ailleurs, l’erreur est sans doute d’avoir fait un peu trop confiance à l’intelligence artificielle.
« Nous prenons ces questions très au sérieux, » a expliqué Google dans une déclaration transmise à The Register, assurant qu’une enquête est en cours.
Cette erreur commise via Antigravity n’est toutefois pas une première. Durant l’été 2025, c’est Replit, un équivalent, qui avait supprimé tout une base de données. Une sauvegarde récente avait néanmoins permis de revenir en arrière. Ces deux exemples montrent néanmoins que même si, en apparence, un outil de « vibe coding » peut paraître simple, il peut aussi avoir de sérieuses conséquences, d’autant plus quand il ne semble n’avoir aucune limite.
Partager