Incidents associés
WASHINGTON, D.C. --- L'assistant de codage génératif d'Amazon, Amazon Q, a été compromis par un pirate informatique qui a injecté un code malveillant dans le dépôt GitHub de l'outil. Ce code a ordonné à l'IA d'effacer les systèmes et les ressources cloud des utilisateurs. Amazon a inclus sans le savoir l'exploit dans une version publique téléchargée près d'un million de fois. Le pirate affirme avoir obtenu un accès administrateur facilement et avoir profité de l'incident pour exposer les pratiques de sécurité laxistes d'Amazon. Cette faille met en évidence les risques croissants, car les pirates informatiques ciblent de plus en plus les outils d'IA pour accéder à des systèmes sensibles.
J.B. Branch, défenseur de la responsabilité des géants du numérique chez Public Citizen, a publié la déclaration suivante en réponse :
« C'est précisément la raison pour laquelle nous avons besoin de règles applicables avant la commercialisation des produits d'IA. Amazon a livré un produit avec des commandes intégrées pour effacer les données des utilisateurs, car il manquait des protections et de la surveillance les plus élémentaires. Les normes réglementaires et de responsabilité ont peut-être permis de détecter cette faille avant sa mise sur le marché. » Les géants du numérique ne cessent de demander au public de leur faire confiance, mais ils prouvent à maintes reprises que cette confiance est mal placée. Les produits d'IA sont commercialisés à la hâte, avec un minimum de contrôles de sécurité et la seule préoccupation du profit. Nous avons besoin d'examens de sécurité obligatoires, d'audits indépendants et d'une responsabilité publique. Le Congrès ne peut pas continuer à ignorer les failles flagrantes de la Silicon Valley en matière d'IA : le prochain piratage pourrait mettre à mal des systèmes entiers.