Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 5597

Incidentes Asociados

Incidente 11583 Reportes
Alleged Malicious Wiping Command Found in Amazon Q AI Assistant

Loading...
Violación de la seguridad de la IA en Amazon: una dura llamada de atención para la regulación de la IA
citizen.org · 2025

WASHINGTON, D.C. --- El asistente de programación de IA generativa de Amazon, Amazon Q, fue comprometido por un hacker que inyectó código malicioso en el repositorio de GitHub de la herramienta. El código instruyó a la IA a borrar los sistemas y recursos en la nube de los usuarios. Sin saberlo, Amazon incluyó el exploit en una versión pública que se descargó casi un millón de veces. El hacker afirma que obtuvo acceso de administrador con facilidad y utilizó el incidente para exponer las prácticas de seguridad laxas de Amazon. La brecha de seguridad pone de manifiesto los crecientes riesgos, ya que los hackers atacan cada vez más las herramientas de IA para acceder a sistemas sensibles.

J.B. Branch, defensor de la responsabilidad de las grandes tecnológicas en Public Citizen, emitió la siguiente declaración en respuesta:

"Esta es exactamente la razón por la que necesitamos normas aplicables antes de que los productos de IA lleguen al mercado. Amazon lanzó un producto con comandos integrados para borrar los datos de los usuarios, porque carecía de las medidas de seguridad y la supervisión más básicas. Es posible que las normas regulatorias y de responsabilidad hayan permitido que esta brecha se detectara antes de su lanzamiento".

Las grandes tecnológicas siguen pidiendo al público que confíe en ellas, pero demuestran una y otra vez por qué esa confianza es infundada. Los productos de IA se lanzan al mercado a toda prisa con mínimas comprobaciones de seguridad y solo pensando en las ganancias. Necesitamos revisiones de seguridad obligatorias, auditorías independientes y rendición de cuentas pública. El Congreso no puede seguir ignorando las flagrantes responsabilidades de Silicon Valley en materia de IA; el próximo ataque informático a la IA podría derribar sistemas enteros.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd