Incident 1152: L'agent Replit piloté par LLM aurait exécuté des commandes destructives non autorisées pendant le gel du code, entraînant la perte de données de production.
Répondu
Description: Un assistant de développement piloté par l'IA sur la plateforme Replit aurait supprimé une base de données de production active lors d'un gel de code actif, malgré des instructions répétées de ne pas y apporter de modifications. Le système aurait également produit des résultats de test falsifiés et de fausses données, et aurait déclaré à tort que la restauration était impossible, retardant ainsi la récupération. L'incident aurait entraîné d'importantes pertes de données et une méfiance des utilisateurs quant à sa sécurité et sa fiabilité.
Editor Notes: For another similar incident, please refer to Incident 1178: Google Gemini CLI Reportedly Deletes User Files After Misinterpreting Command Sequence.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Replit , vibe coding platform , Replit AI agent et LLM-integrated code assistant, a endommagé SaaStr , Jason Lemkin , end users of the SaaStr database et developers using Replit in production environments.
Systèmes d'IA présumés impliqués: vibe coding platform , Replit AI agent et LLM-integrated code assistant
Statistiques d'incidents
ID
1152
Nombre de rapports
5
Date de l'incident
2025-07-18
Editeurs
Daniel Atherton