Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 731: Hallucinated Software Packages with Potential Malware Downloaded Thousands of Times by Developers

Descripción: Large language models are reportedly hallucinating software package names, some of which are uploaded to public repositories and integrated into real code. One such package, huggingface-cli, was downloaded over 15,000 times. This behavior enables "slopsquatting," a term coined by Seth Michael Larson of the Python Software Foundation, where attackers register fake packages under AI-invented names and put supply chains at serious risk.
Editor Notes: See Bar Lanyado's report at: https://www.lasso.security/blog/ai-package-hallucinations. See Spracklen, et al's preprint here, "We Have a Package for You! A Comprehensive Analysis of Package Hallucinations by Code Generating LLMs," here: https://arxiv.org/abs/2406.10279. See Zhou, et al's study, "Larger and more instructable language models become less reliable," here: https://doi.org/10.1038/s41586-024-07930-y.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: OpenAI , Google , Cohere , Meta , DeepSeek AI y BigScience developed an AI system deployed by Developers using AI-generated suggestions y Bar Lanyado, which harmed Developers and businesses incorporating AI-suggested packages , Alibaba , Organizations that incorporated fake dependencies , Software ecosystems , Users downstream of software contaminated by hallucinated packages y Trust in open-source repositories and AI-assisted coding tools.
Sistemas de IA presuntamente implicados: LLM-powered coding assistants , ChatGPT 3.5 , ChatGPT 4 , Gemini Pro , Command , LLaMA , CodeLlama , DeepSeek Coder , BLOOM , Python Package Index (PyPI) , npm (Node.js) , GitHub y Google Search / AI Overview

Estadísticas de incidentes

ID
731
Cantidad de informes
4
Fecha del Incidente
2023-12-01
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

2.2. AI system security vulnerabilities and attacks

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Privacy & Security

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

Incident OccurrenceAI hallucinates software packages and devs download them – even if potentially poisoned with malwareLos ayudantes de código de IA no pueden dejar de inventar nombres de paquetes+1
Las sugerencias de código de IA sabotean la cadena de suministro de software
AI hallucinates software packages and devs download them – even if potentially poisoned with malware

AI hallucinates software packages and devs download them – even if potentially poisoned with malware

theregister.com

Los ayudantes de código de IA no pueden dejar de inventar nombres de paquetes

Los ayudantes de código de IA no pueden dejar de inventar nombres de paquetes

theregister.com

Las sugerencias de código de IA sabotean la cadena de suministro de software

Las sugerencias de código de IA sabotean la cadena de suministro de software

theregister.com

Las dependencias de código alucinadas por la IA se convierten en un nuevo riesgo para la cadena de suministro

Las dependencias de código alucinadas por la IA se convierten en un nuevo riesgo para la cadena de suministro

bleepingcomputer.com

AI hallucinates software packages and devs download them – even if potentially poisoned with malware
theregister.com · 2024

Several big businesses have published source code that incorporates a software package previously hallucinated by generative AI.

Not only that but someone, having spotted this reoccurring hallucination, had turned that made-up dependency in…

Los ayudantes de código de IA no pueden dejar de inventar nombres de paquetes
theregister.com · 2024
Traducido por IA

Los modelos de IA parecen incapaces de dejar de inventar cosas. Como señalan dos estudios recientes, esta tendencia subraya las advertencias previas de no confiar en los consejos de la IA para nada realmente importante.

Algo que la IA inven…

Las sugerencias de código de IA sabotean la cadena de suministro de software
theregister.com · 2025
Traducido por IA

El auge de las herramientas de generación de código basadas en LLM está transformando la forma en que los desarrolladores escriben software y, en el proceso, presenta nuevos riesgos para la cadena de suministro.

Estos asistentes de codifica…

Las dependencias de código alucinadas por la IA se convierten en un nuevo riesgo para la cadena de suministro
bleepingcomputer.com · 2025
Traducido por IA

Una nueva clase de ataques a la cadena de suministro, denominada "slopsquatting", ha surgido debido al creciente uso de herramientas de IA generativa para la programación y a la tendencia del modelo a "alucinar" nombres de paquetes inexiste…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID

Hackers Claim to Break Face ID a Week After iPhone X Release

Sep 2017 · 24 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Hackers Break Apple Face ID

Hackers Claim to Break Face ID a Week After iPhone X Release

Sep 2017 · 24 informes
Biased Sentiment Analysis

Google's sentiment analysis API is just as biased as humans

Oct 2017 · 7 informes
All Image Captions Produced are Violent

Are you scared yet? Meet Norman, the psychopathic AI

Apr 2018 · 28 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df