Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1186: Exposición pública reportada de más de 100,000 conversaciones de LLM a través de enlaces compartidos indexados por motores de búsqueda y archivados

Traducido por IA
Descripción:
Traducido por IA
Entre 2024 y 2025, las funciones para compartir en varias plataformas LLM, como ChatGPT, Claude, Copilot, Qwen, Mistral y Grok, supuestamente expusieron conversaciones de usuarios marcadas como "detectables" a motores de búsqueda y servicios de archivo. Se informó que más de 100 000 chats fueron indexados y posteriormente extraídos, revelando supuestamente claves API, tokens de acceso, identificadores personales y datos empresariales confidenciales.
Editor Notes: Timeline note: According to reporting, a lot of the "discoverable" chats were archived by the Internet Archive by at least June 2024, but actual reporting on the incident did not appear to arise until the end of July and early August 2025. This incident ID was created 08/25/2025 to capture the range of reporting on this cluster of related harms. See also Incident 1172: Meta AI Bug in Deployed Service Reportedly Allowed Potential Access to Other Users' Prompts and Responses.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por OpenAI , Anthropic , Microsoft , xAI , Alibaba , Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google, perjudicó a Users of ChatGPT , Users of Claude , Users of Copilot , Users of Grok , Users of Qwen , Users of Mistral y General public.
Sistemas de IA presuntamente implicados: Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine y Google

Estadísticas de incidentes

ID
1186
Cantidad de informes
5
Fecha del Incidente
2025-07-31
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident Occurrence+2
Filtrando secretos con IA: Los riesgos ocultos de la función para compartir de ChatGPT
He eliminado todos los chats públicos de LLM para que no tengas que hacerlo tú mismo.143.000 chats de Claude, Copilot, ChatGPT, accesibles públicamente. ¿Te expusieron?
Loading...
Filtrando secretos con IA: Los riesgos ocultos de la función para compartir de ChatGPT

Filtrando secretos con IA: Los riesgos ocultos de la función para compartir de ChatGPT

toreon.com

Loading...
¿Se acabaron las confesiones de ChatGPT? ¡No!

¿Se acabaron las confesiones de ChatGPT? ¡No!

digitaldigging.org

Loading...
Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.

Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.

growtika.com

Loading...
He eliminado todos los chats públicos de LLM para que no tengas que hacerlo tú mismo.

He eliminado todos los chats públicos de LLM para que no tengas que hacerlo tú mismo.

julian-b.xyz

Loading...
143.000 chats de Claude, Copilot, ChatGPT, accesibles públicamente. ¿Te expusieron?

143.000 chats de Claude, Copilot, ChatGPT, accesibles públicamente. ¿Te expusieron?

obsidiansecurity.com

Loading...
Filtrando secretos con IA: Los riesgos ocultos de la función para compartir de ChatGPT
toreon.com · 2025
Traducido por IA

Si alguna vez has hecho clic en "Compartir" en una conversación de ChatGPT, es posible que, sin saberlo, la hayas habilitado para búsquedas en Google.

La función para compartir facilita enormemente compartir tus conversaciones con IA. Pero …

Loading...
¿Se acabaron las confesiones de ChatGPT? ¡No!
digitaldigging.org · 2025
Traducido por IA

ChatGPT eliminó hoy casi 50.000 conversaciones compartidas del índice de Google tras nuestro artículo. Creían haber resuelto el problema. ¿Pero lo lograron?

Una nueva investigación de Digital Digging, aquí está la primera, realizada con el …

Loading...
Los chats de ChatGPT fueron indexados y luego eliminados de la búsqueda, pero aún permanecen en línea.
growtika.com · 2025
Traducido por IA

Lo que empezó como una función para compartir se convirtió en una revelación SEO inesperada. Más de 100,000 chats de ChatGPT eran de acceso público, algunos indexados y muchos archivados mucho antes de que OpenAI respondiera.

Todo empezó co…

Loading...
He eliminado todos los chats públicos de LLM para que no tengas que hacerlo tú mismo.
julian-b.xyz · 2025
Traducido por IA

Tras todo el revuelo en torno a los enlaces compartibles de LLM esta semana, me animé a investigar más a fondo. El viernes, Google dejó de indexar los enlaces compartibles de ChatGPT, y varios otros proveedores nunca fueron indexados. Sin e…

Loading...
143.000 chats de Claude, Copilot, ChatGPT, accesibles públicamente. ¿Te expusieron?
obsidiansecurity.com · 2025
Traducido por IA

Qué sucedió:Un investigador de seguridad descubrió que más de 143 000 conversaciones de usuarios con chatbots GenAI, incluyendo Claude, Copilot y ChatGPT, son de acceso público en Archive.org. Este descubrimiento se produce poco después de …

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 informes
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 26ad817