Incidents associés
Un chef de produit expérimentant le « vibe coding » a vu l'outil Gemini CLI de Google halluciner une série d'opérations sur des fichiers avant de supprimer définitivement son travail et d'avouer sa propre « incompétence flagrante ». Cet incident met en évidence les risques importants liés au déploiement d'assistants IA dépourvus de contrôle d'erreurs robuste.
Dans un [article de blog d'Anuraag Gupta sur l'incident de perte de données de Gemini CLI](https://anuraag2601.github.io/gemini_cli_disaster.html « Article de blog d'Anuraag Gupta sur l'incident de perte de données de Gemini CLI ») publié le 25 juillet, l'utilisateur Anuraag Gupta a documenté comment l'agent IA Gemini CLI de Google a mal interprété une seule commande échouée, entraînant une cascade d'erreurs qui a irrémédiablement détruit ses fichiers. Cet événement survient une semaine seulement après un fiasco similaire impliquant l'agent IA Replit.
Ces échecs successifs soulèvent de sérieuses questions quant à la sécurité des outils de codage IA, notamment à mesure qu'ils deviennent plus accessibles aux non-développeurs. La promesse d'une création intuitive assistée par IA, une tendance que Google a elle-même adoptée, est désormais éclipsée par le risque d'erreurs catastrophiques et irrécupérables.
Une cascade d'erreurs : Comment Gemini a halluciné et supprimé des fichiers utilisateur
L'échec a commencé par une simple instruction du chef de produit Anuraag Gupta. Il a demandé à la [CLI Gemini récemment lancée](https://winbuzzer.com/2025/06/25/google-unveils-gemini-cli-a-free-open-source-ai-coding-agent-xcxwbn/ « Winbuzzer : Google dévoile la CLI Gemini, un agent de codage IA open source gratuit ») de renommer un répertoire et de déplacer son contenu vers un nouveau sous-répertoire. L'IA a correctement constaté qu'elle ne pouvait pas renommer un répertoire dans lequel elle se trouvait et a proposé une solution de contournement logique.
Elle a suggéré de créer d'abord le nouveau répertoire, puis de déplacer les fichiers. C'est là que la réalité et la perception de l'IA ont divergé. Gemini a exécuté une commande « mkdir », mais n'a pas reconnu que l'opération avait échoué ; le dossier n'a jamais été créé.
Partant de ce principe erroné, elle a procédé au « déplacement » des fichiers. Les conséquences ont été désastreuses. Comme l'explique l'analyse technique de Gupta, la commande Windows « move », lorsqu'elle pointe vers une destination inexistante, renomme le fichier source.
Chaque fichier a été renommé séquentiellement avec le même nom de fichier cible, écrasant le précédent, jusqu'à ce que seul le dernier fichier traité soit conservé. Toutes les autres données ont été définitivement supprimées. Ne trouvant pas le nouveau dossier, Gupta a demandé à l'IA d'annuler ses actions.
Les tentatives de Gemini pour récupérer des fichiers d'un répertoire qui n'a jamais existé ont inévitablement échoué. Cela a déclenché une confession complète de l'agent : « J'ai échoué complètement et de manière catastrophique. Mon examen des commandes confirme mon incompétence flagrante. » Il s'est conclu par un aveu sans appel : « Je ne trouve pas vos fichiers. J'ai perdu vos données. Il s'agit d'une défaillance inacceptable et irréversible. »
Le champ de mines de Vibe Coding : Un modèle de perte de données induite par l'IA
Gupta a décrit l'expérience ainsi : « Ce qui avait commencé comme un simple test de gestion de fichiers s'est transformé en l'une des défaillances d'IA les plus troublantes et fascinantes que j'aie jamais observées. » Son histoire n'est pas un incident isolé, mais s'inscrit dans une nouvelle tendance inquiétante. Elle fait suite à une affaire très médiatisée où le fondateur de SaaStr, Jason Lemkin, a signalé que l'agent d'IA Replit avait supprimé la base de données de production de son entreprise.
Lemkin, qui avait documenté son enthousiasme pour le « vibe coding », a tweeté sa fureur : « Si @Replit a supprimé ma base de données entre ma dernière session et maintenant, ce sera un enfer. »* Dans son cas, l'IA a également eu des hallucinations, créant de fausses données et mentant sur ses tests. Bien que ses données aient finalement été récupérées, l'incident a souligné les dangers des agents IA (https://winbuzzer.com/ai/ai-agents/).
Le PDG de Replit a qualifié l'événement d'« inacceptable et ne devrait jamais être possible », et l'entreprise a depuis promis de mettre en place de meilleures mesures de protection pour prévenir de futurs désastres. Lemkin a ensuite évoqué les risques inhérents : « Je sais que le vibe coding est fluide et nouveau… Mais on ne peut pas écraser une base de données de production. » Ces événements suggèrent que le secteur est aux prises avec un problème de sécurité fondamental.
Confiance dans le terminal : les enjeux majeurs des assistants de codage IA
La principale défaillance technique de l'incident Gemini résidait dans un manque de vérification. L'analyse de Gupta souligne que l'IA n'a jamais effectué de vérification « lecture après écriture » pour [confirmer que sa commande « mkdir » avait bien fonctionné](https://anuraag2601.github.io/gemini_cli_disaster.html « Article de blog d'Anuraag Gupta sur l'incident de perte de données de la CLI Gemini »). Elle se faisait implicitement confiance, ce qui constitue un défaut fatal pour tout système modifiant le système de fichiers d'un utilisateur.
Ce manque de confiance a des conséquences importantes sur le paysage concurrentiel des outils de codage IA. Google a lancé Gemini CLI pour concurrencer directement les offres d'OpenAI et d'Anthropic. Gupta a lui-même testé Gemini CLI avec Claude Code. Il a maintenant signalé un bug sur GitHub.
La communauté des développeurs a déjà élaboré des alternatives plus transparentes. En réponse à [l'interface de ligne de commande officielle Codex d'OpenAI](https://winbuzzer.com/2025/04/16/openais-codex-cli-brings-ai-coding-to-the-terminal-without-lock-in-xcxwbn/ « Winbuzzer : l'interface de ligne de commande Codex d'OpenAI apporte le codage d'IA au terminal, sans verrouillage »), les développeurs ont créé [Open Codex CLI, un outil conçu pour le contrôle local](https://winbuzzer.com/2025/04/22/open-codex-cli-local-first-ai-coding-cli-emerges-as-alternative-to-openai-codex-cli-xcxwbn/ « Winbuzzer : l'interface de ligne de commande OpenAI Codex apparaît comme une alternative à l'interface de ligne de commande Codex d'OpenAI ») et pour éviter les « abstractions fuyantes » des bases de code officielles. À mesure que ces outils prolifèrent, la fiabilité et la sécurité deviendront le champ de bataille déterminant.