Incidente 1186: Exposición pública reportada de más de 100,000 conversaciones de LLM a través de enlaces compartidos indexados por motores de búsqueda y archivados
Descripción: Entre 2024 y 2025, las funciones para compartir en varias plataformas LLM, como ChatGPT, Claude, Copilot, Qwen, Mistral y Grok, supuestamente expusieron conversaciones de usuarios marcadas como "detectables" a motores de búsqueda y servicios de archivo. Se informó que más de 100 000 chats fueron indexados y posteriormente extraídos, revelando supuestamente claves API, tokens de acceso, identificadores personales y datos empresariales confidenciales.
Editor Notes: Timeline note: According to reporting, a lot of the "discoverable" chats were archived by the Internet Archive by at least June 2024, but actual reporting on the incident did not appear to arise until the end of July and early August 2025. This incident ID was created 08/25/2025 to capture the range of reporting on this cluster of related harms. See also Incident 1172: Meta AI Bug in Deployed Service Reportedly Allowed Potential Access to Other Users' Prompts and Responses.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por OpenAI , Anthropic , Microsoft , xAI , Alibaba , Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google, perjudicó a Users of ChatGPT , Users of Claude , Users of Copilot , Users of Grok , Users of Qwen , Users of Mistral y General public.
Sistemas de IA presuntamente implicados: Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google
Estadísticas de incidentes
ID
1186
Cantidad de informes
1
Fecha del Incidente
2025-07-31
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Lo que empezó como una función para compartir se convirtió en una revelación SEO inesperada. Más de 100,000 chats de ChatGPT eran de acceso público, algunos indexados y muchos archivados mucho antes de que OpenAI respondiera.
Todo empezó co…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Inappropriate Gmail Smart Reply Suggestions
· 22 informes
Loading...

Images of Black People Labeled as Gorillas
· 23 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Loading...

Inappropriate Gmail Smart Reply Suggestions
· 22 informes
Loading...

Images of Black People Labeled as Gorillas
· 23 informes