Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1186: Exposition publique signalée de plus de 100 000 conversations LLM via des liens de partage indexés par les moteurs de recherche et archivés

Traduit par IA
Description:
Traduit par IA
Entre 2024 et 2025, les fonctionnalités de partage de plusieurs plateformes LLM, dont ChatGPT, Claude, Copilot, Qwen, Mistral et Grok, auraient exposé des conversations d'utilisateurs marquées comme « découvrables » aux moteurs de recherche et aux services d'archivage. Plus de 100 000 conversations auraient été indexées puis extraites, révélant prétendument des clés API, des jetons d'accès, des identifiants personnels et des données commerciales sensibles.
Editor Notes: Timeline note: According to reporting, a lot of the "discoverable" chats were archived by the Internet Archive by at least June 2024, but actual reporting on the incident did not appear to arise until the end of July and early August 2025. This incident ID was created 08/25/2025 to capture the range of reporting on this cluster of related harms. See also Incident 1172: Meta AI Bug in Deployed Service Reportedly Allowed Potential Access to Other Users' Prompts and Responses.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Présumé : Un système d'IA développé et mis en œuvre par OpenAI , Anthropic , Microsoft , xAI , Alibaba , Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine et Google, a endommagé Users of ChatGPT , Users of Claude , Users of Copilot , Users of Grok , Users of Qwen , Users of Mistral et General public.
Systèmes d'IA présumés impliqués: Mistral , ChatGPT , Claude , Copilot , Grok , Qwen , Internet Archive , Wayback Machine et Google

Statistiques d'incidents

ID
1186
Nombre de rapports
1
Date de l'incident
2025-07-31
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceLes chats ChatGPT ont été indexés puis supprimés de la recherche, mais restent toujours en ligne
Loading...
Les chats ChatGPT ont été indexés puis supprimés de la recherche, mais restent toujours en ligne

Les chats ChatGPT ont été indexés puis supprimés de la recherche, mais restent toujours en ligne

growtika.com

Loading...
Les chats ChatGPT ont été indexés puis supprimés de la recherche, mais restent toujours en ligne
growtika.com · 2025
Traduit par IA

Ce qui n'était au départ qu'une fonctionnalité de partage s'est transformé en une visibilité SEO inattendue. Plus de 100 000 conversations ChatGPT étaient accessibles au public, certaines indexées et beaucoup archivées bien avant la réponse…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 rapports
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 rapports
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 rapports
Incident précédent

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Inappropriate Gmail Smart Reply Suggestions

Inappropriate Gmail Smart Reply Suggestions

Nov 2015 · 22 rapports
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 rapports
Loading...
Images of Black People Labeled as Gorillas

Images of Black People Labeled as Gorillas

Jun 2015 · 23 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4