Incident 1186: Exposition publique signalée de plus de 100 000 conversations LLM via des liens de partage indexés par les moteurs de recherche et archivés
Description: Entre 2024 et 2025, les fonctionnalités de partage de plusieurs plateformes LLM, dont ChatGPT, Claude, Copilot, Qwen, Mistral et Grok, auraient exposé des conversations d'utilisateurs marquées comme « découvrables » aux moteurs de recherche et aux services d'archivage. Plus de 100 000 conversations auraient été indexées puis extraites, révélant prétendument des clés API, des jetons d'accès, des identifiants personnels et des données commerciales sensibles.
Editor Notes: Timeline note: According to reporting, a lot of the "discoverable" chats were archived by the Internet Archive by at least June 2024, but actual reporting on the incident did not appear to arise until the end of July and early August 2025. This incident ID was created 08/25/2025 to capture the range of reporting on this cluster of related harms. See also Incident 1172: Meta AI Bug in Deployed Service Reportedly Allowed Potential Access to Other Users' Prompts and Responses.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par OpenAI , Anthropic , Microsoft , xAI , Alibaba , Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine et Google, a endommagé Users of ChatGPT , Users of Claude , Users of Copilot , Users of Grok , Users of Qwen , Users of Mistral et General public.
Systèmes d'IA présumés impliqués: Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine et Google
Statistiques d'incidents
ID
1186
Nombre de rapports
1
Date de l'incident
2025-07-31
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Ce qui n'était au départ qu'une fonctionnalité de partage s'est transformé en une visibilité SEO inattendue. Plus de 100 000 conversations ChatGPT étaient accessibles au public, certaines indexées et beaucoup archivées bien avant la réponse…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

Inappropriate Gmail Smart Reply Suggestions
· 22 rapports
Loading...

Images of Black People Labeled as Gorillas
· 23 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Loading...

Inappropriate Gmail Smart Reply Suggestions
· 22 rapports
Loading...

Images of Black People Labeled as Gorillas
· 23 rapports