Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1186: Exposición pública reportada de más de 100,000 conversaciones de LLM a través de enlaces compartidos indexados por motores de búsqueda y archivados

Traducido por IA
Descripción:
Traducido por IA
Entre 2024 y 2025, las funciones para compartir en varias plataformas LLM, como ChatGPT, Claude, Copilot, Qwen, Mistral y Grok, supuestamente expusieron conversaciones de usuarios marcadas como "detectables" a motores de búsqueda y servicios de archivo. Se informó que más de 100 000 chats fueron indexados y posteriormente extraídos, revelando supuestamente claves API, tokens de acceso, identificadores personales y datos empresariales confidenciales.
Editor Notes: Timeline note: According to reporting, a lot of the "discoverable" chats were archived by the Internet Archive by at least June 2024, but actual reporting on the incident did not appear to arise until the end of July and early August 2025. This incident ID was created 08/25/2025 to capture the range of reporting on this cluster of related harms. See also Incident 1172: Meta AI Bug in Deployed Service Reportedly Allowed Potential Access to Other Users' Prompts and Responses.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI , Anthropic , Microsoft , xAI , Alibaba , Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google, perjudicó a Users of ChatGPT , Users of Claude , Users of Copilot , Users of Grok , Users of Qwen , Users of Mistral y General public.
Sistemas de IA presuntamente implicados: Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google

Estadísticas de incidentes

ID
1186
Cantidad de informes
1
Fecha del Incidente
2025-07-31
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceLos chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.
Loading...
Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.

Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.

growtika.com

Loading...
Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.
growtika.com · 2025
Traducido por IA

Lo que empezó como una función para compartir se convirtió en una revelación SEO inesperada. Más de 100,000 chats de ChatGPT eran de acceso público, algunos indexados y muchos archivados mucho antes de que OpenAI respondiera.

Todo empezó co…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 informes
Incidente Anterior

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4