Incidents associés
Un assistant de codage IA très utilisé, Replit, aurait déraillé, effaçant une base de données et générant 4 000 utilisateurs fictifs avec des données entièrement fabriquées.
Ce rapport inquiétant provient de Jason M. Lemkin, entrepreneur en technologie et fondateur de SaaStr, qui a publié un récit édifiant sur les réseaux sociaux.
« Je suis inquiet pour la sécurité. J'ai codé en mode « vibration » pendant 80 heures la semaine dernière, et Replit AI m'a menti tout le week-end. Il a finalement admis avoir menti volontairement », a-t-il déclaré dans une vidéo LinkedIn.
Selon ses déclarations, l'assistant IA aurait ignoré des instructions répétées et aurait continué à dissimuler des bugs et des problèmes en générant de fausses données, en fabriquant des rapports et en mentant sur les résultats des tests unitaires.
Lemkin affirme que l'outil IA a modifié le code malgré ses instructions. « Je n'ai jamais demandé cela, et il l'a fait tout seul. Je lui ai dit 11 fois en MAJUSCULES : NE LE FAITES PAS. »
Il a tenté d'imposer un gel de code dans Replit, mais a rapidement découvert que c'était impossible.
« Il est impossible d'imposer un gel de code dans des applications de codage dynamique comme Replit. C'est tout simplement impossible », a-t-il écrit.
« En fait, quelques secondes après ma publication, pour notre toute première discussion de la journée, @Replit a de nouveau violé le gel de code. »
Malgré des efforts constants pour maîtriser le comportement de l'IA, il a constaté que Replit ne pouvait garantir l'exécution d'un test unitaire sans risquer un effacement de la base de données.
En fin de compte, il a conclu que la plateforme n'était tout simplement pas prête pour une utilisation en production, surtout pas pour son public cible d'utilisateurs non techniques souhaitant développer des logiciels commerciaux sans écrire de code.
Avec 30 millions d'utilisateurs dans le monde, Replit est un acteur majeur du développement logiciel. La société propose des outils d'IA pour aider les utilisateurs à écrire, tester et déployer du code.
Réaction du PDG de Replit
Amjad Masad, PDG de Replit, a publié une réponse à la situation problématique de Lemkin concernant le codage. Il s'est adressé à X pour s'excuser des erreurs créées par son outil d'IA, que Masad a jugées « inacceptables » et a déclarées « impossibles à mettre en œuvre ».
Masad affirme que l'équipe Replit a travaillé tout le week-end pour déployer une « séparation automatique entre développement et production de bases de données afin d'éviter cela de manière définitive ».
Le message indique que « des environnements de test sont également en cours de développement. Plus d'informations demain », a déclaré Masad.
Le PDG de Replit a également évoqué les « difficultés liées au gel du code » et a déclaré que l'entreprise « travaille activement sur un mode planification/chat uniquement » afin que les utilisateurs puissent « élaborer des stratégies sans risquer leur base de code ».
Masad a déclaré que Replit rembourserait Lemkin pour ses ennuis et « procéderait à une analyse rétrospective afin de déterminer exactement ce qui s'est passé et comment nous pouvons mieux y répondre à l'avenir ».
Je sais que Replit affirme que des améliorations sont à venir, mais ils réalisent un chiffre d'affaires annuel de plus de 100 millions de dollars. Au moins, il faut améliorer les garde-fous. D'une manière ou d'une autre. Même si c'est difficile. C'est tout simplement difficile », a déclaré Lemkin dans une publication sur X.
Le codage par IA est controversé
Les outils de codage par IA alimentent une nouvelle tendance sur la scène technologique : le codage par vibration. Ce terme aurait été inventé par Andrej Karpathy, cofondateur d'OpenAI, qui a écrit un article sur le fait de « céder aux vibrations et d'oublier l'existence même du code ».
Anysphere, la startup d'IA à l'origine du populaire outil de codage par IA Cursor, vient de conclure une levée de fonds de 900 millions de dollars pour une valorisation de 9,9 milliards de dollars. Fondée par d'anciens ingénieurs d'OpenAI et de Tesla, l'entreprise affirme générer un milliard de lignes de code par jour.
Cependant, de nombreux codeurs sont mécontents des résultats de l'IA, car elle « écrit simplement du code inutile ». ](https://cybernews.com/security/vibe-coding-ai-developers-backlash/)Le problème est que l'IA suit sa propre logique lors du codage, ce qui peut être difficile à comprendre, à dépanner ou à développer.
Certains utilisateurs de Reddit décrivent le codage de l'IA ainsi : « L'oncle ivre passe après l'accident et vous donne un rouleau de ruban adhésif avant de vous demander de l'argent pour aller à Las Vegas. »
La sécurité est un autre problème. L'adoption croissante du code généré par l'IA pourrait être perçue comme une opportunité réelle d'exploitation, car elle laisse potentiellement de nombreuses failles de sécurité.
Les pirates informatiques ciblent également les codeurs vibe en leur proposant une extension malveillante pour le codage vibe. Une de ces extensions malveillantes a été téléchargée 200 000 fois. Cependant, au lieu de fournir des fonctionnalités utiles, elle exécute des scripts PowerShell, permettant aux attaquants d'accéder à distance à l'ordinateur infecté.
Mises à jour récentes
🟢 [21/07/2025 13:20 GMT] --- Publication du rapport initial sur les allégations de Jason Lemkin selon lesquelles Replit AI a supprimé une base de données de production, créé 4 000 utilisateurs et l'a induit en erreur lors de sessions de codage Vibe.**
🟢 [22/07/2025 15:00 GMT] --- Ajout de la réponse publique d'Amjad Masad, PDG de Replit. Il a qualifié l'incident d'« inacceptable » et a annoncé le déploiement de correctifs, notamment la séparation des bases de données développement/production et la mise en place d'un environnement de test.
🟢 [23/07/2025 12:58 GMT] --- Inclut les réactions en ligne de Reddit, X (Twitter) et LinkedIn --- de nombreux utilisateurs ont exprimé leurs inquiétudes concernant le « vibe coding », la fiabilité des outils de codage IA et des problèmes plus généraux liés aux logiciels générés par IA.