Incidente 1174: Según se informa, Microsoft Copilot puede acceder a datos almacenados en caché desde repositorios privados de GitHub.
Descripción: Lasso Security informó que Microsoft Copilot podía devolver contenido de repositorios de GitHub que habían sido públicos brevemente, pero que posteriormente se habían convertido en privados o se habían eliminado. Lasso atribuyó esto al sistema de caché de Bing, que almacenaba "datos ocultos" de más de 20 000 repositorios. El contenido almacenado en caché supuestamente incluía información confidencial como claves de acceso, tokens y paquetes internos. Microsoft, según se informa, clasificó el problema como de baja gravedad y solo aplicó mitigaciones parciales.
Editor Notes: Timeline notes: This incident ID date is marked 02/26/2025 because the bulk of reporting centered on Lasso Security's investigation emerged at that time. (Lasso's report is dated 02/27/2025, though.) However, Lasso cites an August 2024 LinkedIn post by Zachary Horton identifying the problem months before significant press coverage: https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP. The incident ID was created 08/15/2025.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Microsoft , GitHub , Microsoft Copilot y Bing, perjudicó a GitHub users , GitHub repositories y GitHub.
Estadísticas de incidentes
ID
1174
Cantidad de informes
2
Fecha del Incidente
2025-02-26
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
Loading...
Investigadores de seguridad advierten que los datos expuestos en internet, aunque sea por un instante, pueden permanecer en chatbots de IA generativa en línea como Microsoft Copilot mucho después de que se vuelvan privados.
Miles de reposit…
Loading...
En agosto de 2024, encontramos una publicación en LinkedIn (https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP) que afirmaba que OpenAI se estaba entrenando con repositorios privados de GitHub y ex…
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents