Incident 1174: Microsoft Copilot serait capable d'accéder aux données mises en cache à partir de référentiels GitHub privés.
Description: Lasso Security a signalé que Microsoft Copilot pouvait renvoyer du contenu de dépôts GitHub brièvement public, puis rendu privé ou supprimé. Lasso a attribué ce problème au système de mise en cache de Bing, qui stockait des « données zombies » provenant de plus de 20 000 dépôts. Le contenu mis en cache contiendrait des informations sensibles telles que des clés d'accès, des jetons et des packages internes. Microsoft aurait classé le problème comme étant de faible gravité et n'aurait appliqué que des mesures d'atténuation partielles.
Editor Notes: Timeline notes: This incident ID date is marked 02/26/2025 because the bulk of reporting centered on Lasso Security's investigation emerged at that time. (Lasso's report is dated 02/27/2025, though.) However, Lasso cites an August 2024 LinkedIn post by Zachary Horton identifying the problem months before significant press coverage: https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP. The incident ID was created 08/15/2025.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Microsoft , GitHub , Microsoft Copilot et Bing, a endommagé GitHub users , GitHub repositories et GitHub.
Statistiques d'incidents
ID
1174
Nombre de rapports
2
Date de l'incident
2025-02-26
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
Loading...
Des chercheurs en sécurité avertissent que les données exposées sur Internet, même brièvement, peuvent persister dans des chatbots d'IA générative en ligne comme Microsoft Copilot longtemps après leur privatisation.
Des milliers de dépôts G…
Loading...
En août 2024, nous avons découvert une publication LinkedIn [https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP] affirmant qu'OpenAI s'entraînait sur des données provenant de dépôts GitHub privés e…
Variantes
Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Incidents similaires
Did our AI mess up? Flag the unrelated incidents