Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5597

Incidents associés

Incident 11583 Rapports
Alleged Malicious Wiping Command Found in Amazon Q AI Assistant

Loading...
Violation de l'IA d'Amazon : un signal d'alarme brutal pour la réglementation de l'IA
citizen.org · 2025

WASHINGTON, D.C. --- L'assistant de codage génératif d'Amazon, Amazon Q, a été compromis par un pirate informatique qui a injecté un code malveillant dans le dépôt GitHub de l'outil. Ce code a ordonné à l'IA d'effacer les systèmes et les ressources cloud des utilisateurs. Amazon a inclus sans le savoir l'exploit dans une version publique téléchargée près d'un million de fois. Le pirate affirme avoir obtenu un accès administrateur facilement et avoir profité de l'incident pour exposer les pratiques de sécurité laxistes d'Amazon. Cette faille met en évidence les risques croissants, car les pirates informatiques ciblent de plus en plus les outils d'IA pour accéder à des systèmes sensibles.

J.B. Branch, défenseur de la responsabilité des géants du numérique chez Public Citizen, a publié la déclaration suivante en réponse :

« C'est précisément la raison pour laquelle nous avons besoin de règles applicables avant la commercialisation des produits d'IA. Amazon a livré un produit avec des commandes intégrées pour effacer les données des utilisateurs, car il manquait des protections et de la surveillance les plus élémentaires. Les normes réglementaires et de responsabilité ont peut-être permis de détecter cette faille avant sa mise sur le marché. » Les géants du numérique ne cessent de demander au public de leur faire confiance, mais ils prouvent à maintes reprises que cette confiance est mal placée. Les produits d'IA sont commercialisés à la hâte, avec un minimum de contrôles de sécurité et la seule préoccupation du profit. Nous avons besoin d'examens de sécurité obligatoires, d'audits indépendants et d'une responsabilité publique. Le Congrès ne peut pas continuer à ignorer les failles flagrantes de la Silicon Valley en matière d'IA : le prochain piratage pourrait mettre à mal des systèmes entiers.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd