Incidentes Asociados
WASHINGTON, D.C. --- El asistente de programación de IA generativa de Amazon, Amazon Q, fue comprometido por un hacker que inyectó código malicioso en el repositorio de GitHub de la herramienta. El código instruyó a la IA a borrar los sistemas y recursos en la nube de los usuarios. Sin saberlo, Amazon incluyó el exploit en una versión pública que se descargó casi un millón de veces. El hacker afirma que obtuvo acceso de administrador con facilidad y utilizó el incidente para exponer las prácticas de seguridad laxas de Amazon. La brecha de seguridad pone de manifiesto los crecientes riesgos, ya que los hackers atacan cada vez más las herramientas de IA para acceder a sistemas sensibles.
J.B. Branch, defensor de la responsabilidad de las grandes tecnológicas en Public Citizen, emitió la siguiente declaración en respuesta:
"Esta es exactamente la razón por la que necesitamos normas aplicables antes de que los productos de IA lleguen al mercado. Amazon lanzó un producto con comandos integrados para borrar los datos de los usuarios, porque carecía de las medidas de seguridad y la supervisión más básicas. Es posible que las normas regulatorias y de responsabilidad hayan permitido que esta brecha se detectara antes de su lanzamiento".
Las grandes tecnológicas siguen pidiendo al público que confíe en ellas, pero demuestran una y otra vez por qué esa confianza es infundada. Los productos de IA se lanzan al mercado a toda prisa con mínimas comprobaciones de seguridad y solo pensando en las ganancias. Necesitamos revisiones de seguridad obligatorias, auditorías independientes y rendición de cuentas pública. El Congreso no puede seguir ignorando las flagrantes responsabilidades de Silicon Valley en materia de IA; el próximo ataque informático a la IA podría derribar sistemas enteros.