Incident 1178: Google Gemini CLI supprimerait les fichiers utilisateur après une mauvaise interprétation de la séquence de commandes
Description: Le chef de produit Anuraag Gupta a signalé que l'assistant de codage IA Gemini CLI de Google avait supprimé définitivement ses fichiers après avoir mal interprété une commande de création de répertoire ayant échoué. L'outil aurait agi comme si le répertoire existait, provoquant une série d'opérations de déplacement qui ont écrasé tous les fichiers sauf un. Les tentatives de restauration auraient échoué, et l'IA a reconnu un « échec inacceptable et irréversible ».
Editor Notes: Anuraag Gupta has reported details of the incident here: https://github.com/google-gemini/gemini-cli/issues/4586. In particular, a purported record of the "full powershell conversation" is located here: https://github.com/user-attachments/files/21372906/gemini.cli.screw.up.txt. For another similar incident, please refer to Incident 1152: LLM-Driven Replit Agent Reportedly Executed Unauthorized Destructive Commands During Code Freeze, Leading to Loss of Production Data.
Outils
Nouveau rapportNouvelle RéponseDécouvrirVoir l'historique
Le Moniteur des incidents et risques liés à l'IA de l'OCDE (AIM) collecte et classe automatiquement les incidents et risques liés à l'IA en temps réel à partir de sources d'information réputées dans le monde entier.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Google et Gemini CLI, a endommagé Users of Gemini CLI et Anuraag Gupta.
Système d'IA présumé impliqué: Gemini CLI
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Rapports d'incidents
Chronologie du rapport
Loading...
Un chef de produit expérimentant le « vibe coding » a vu l'outil Gemini CLI de Google halluciner une série d'opérations sur des fichiers avant de supprimer définitivement son travail et d'avouer sa propre « incompétence flagrante ». Cet inc…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

