Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6120

Incidentes Asociados

Incidente 11781 Reporte
Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence

Loading...
La CLI de Gemini de Google elimina archivos de usuario y confiesa un fallo "catastrófico".
winbuzzer.com · 2025

Un gerente de producto que experimentaba con "vibe coding" observó cómo la herramienta Gemini CLI de Google alucinaba con una serie de operaciones de archivos antes de eliminar permanentemente su trabajo y confesar su propia "grave incompetencia". El incidente pone de manifiesto los graves riesgos de implementar asistentes de IA que carecen de una comprobación de errores robusta.

En un análisis detallado publicado el 25 de julio (https://anuraag2601.github.io/gemini_cli_disaster.html, "Entrada del blog de Anuraag Gupta sobre el incidente de pérdida de datos de Gemini CLI"), el usuario Anuraag Gupta documentó cómo el agente de IA de Gemini CLI de Google malinterpretó un único comando fallido, lo que provocó una cascada de errores que destruyeron irremediablemente sus archivos. Este incidente se produce tan solo una semana después de un fiasco similar de pérdida de datos relacionado con el agente de IA Replit.

Estos fallos consecutivos plantean serias dudas sobre la seguridad de las herramientas de programación con IA, especialmente a medida que se vuelven más accesibles para quienes no son desarrolladores. La promesa de una creación intuitiva asistida por IA, una tendencia que el propio Google ha adoptado: «...los desarrolladores profesionales... querrían tener una experiencia similar a la de la programación», se ve ahora ensombrecida por el riesgo de errores catastróficos e irrecuperables.

Una cascada de errores: Cómo Gemini alucinó y eliminó archivos de usuario

El fallo comenzó con una simple instrucción del gerente de producto, Anuraag Gupta. Le pidió a la recientemente lanzada Gemini CLI que renombrara un directorio y moviera su contenido a un nuevo subdirectorio. La IA detectó correctamente que no podía renombrar un directorio dentro del cual se encontraba y propuso una solución lógica.

Sugirió crear primero el nuevo directorio y luego mover los archivos. Aquí es donde la realidad y la percepción de la IA divergieron. Gemini ejecutó el comando mkdir, pero no reconoció que la operación no se había realizado correctamente; la carpeta nunca se creó.

Partiendo de esta premisa falsa, procedió a "mover" los archivos. Las consecuencias fueron desastrosas. Como explica el análisis técnico de Gupta, el comando "mover" de Windows, al apuntar a un destino inexistente, renombra el archivo de origen.

Cada archivo se renombró secuencialmente con el mismo nombre de archivo de destino, sobrescribiendo el anterior, hasta que solo quedó el último archivo procesado. Todos los demás datos se eliminaron permanentemente. Al no encontrar la nueva carpeta, Gupta solicitó a la IA que revirtiera sus acciones.

Los intentos de Gemini por recuperar archivos de un directorio inexistente fracasaron inevitablemente. Esto provocó una confesión completa del agente: "Le he fallado total y catastróficamente. Mi revisión de los comandos confirma mi grave incompetencia". Concluyó con una contundente admisión: "No puedo encontrar sus archivos. He perdido sus datos. Este es un fallo inaceptable e irreversible".

El campo minado de Vibe Coding: Un patrón de pérdida de datos impulsado por IA

Gupta describió la experiencia como "lo que comenzó como una simple prueba de gestión de archivos se convirtió en uno de los fallos de IA más inquietantes y fascinantes que he presenciado". Su historia no es un incidente aislado, sino parte de un nuevo y perturbador patrón. Sigue un caso de alto perfil en el que el fundador de SaaStr, Jason Lemkin, denunció que el agente de IA de Replit eliminó la base de datos de producción de su empresa.

Lemkin, quien había estado documentando su entusiasta adopción de la "codificación de vibraciones", tuiteó su furia, declarando: "Si @Replit borró mi base de datos entre mi última sesión y ahora, se armará un escándalo". En su caso, la IA también alucinó, creando datos falsos y mintiendo sobre sus pruebas. Si bien sus datos finalmente se recuperaron, el incidente puso de relieve los peligros de los agentes de IA (https://winbuzzer.com/ai/ai-agents/).

El director ejecutivo de Replit calificó el evento de "inaceptable y nunca debería ser posible", y la compañía ha prometido implementar mejores medidas de seguridad para prevenir futuros desastres. Lemkin reflexionó posteriormente sobre los riesgos inherentes, señalando: "Sé que la codificación de vibraciones es fluida y nueva... Pero no se puede sobrescribir una base de datos de producción". Estos eventos sugieren que la industria se enfrenta a un problema fundamental de seguridad.

Confianza en la terminal: La gran apuesta para los asistentes de programación de IA

El fallo técnico principal en el incidente de Gemini fue la falta de verificación. El análisis de Gupta señala que la IA nunca realizó una comprobación de lectura tras escritura para confirmar que su comando mkdir realmente había funcionado (https://anuraag2601.github.io/gemini_cli_disaster.html "Entrada del blog de Anuraag Gupta sobre el incidente de pérdida de datos de la CLI de Gemini"). Confiaba implícitamente en sus propias acciones, una falla fatal para cualquier sistema que modifique el sistema de archivos de un usuario.

Esta falta de confianza tiene implicaciones significativas para el panorama competitivo de las herramientas de programación de IA. Google lanzó Gemini CLI para competir directamente con las ofertas de OpenAI y Anthropic. El propio Gupta lo probó con Claude Code. Ahora ha presentado un informe de error en GitHub.

La comunidad de desarrolladores ya ha estado desarrollando alternativas más transparentes. En respuesta a OpenAI's official Codex CLI, los desarrolladores crearon Open Codex CLI, una herramienta diseñada para el control local y para evitar las "abstracciones con fugas" de las bases de código oficiales. A medida que estas herramientas proliferen, la confiabilidad y la seguridad se convertirán en el campo de batalla definitorio.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd