Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1174: Según se informa, Microsoft Copilot puede acceder a datos almacenados en caché desde repositorios privados de GitHub.

Traducido por IA
Descripción:
Traducido por IA
Lasso Security informó que Microsoft Copilot podía devolver contenido de repositorios de GitHub que habían sido públicos brevemente, pero que posteriormente se habían convertido en privados o se habían eliminado. Lasso atribuyó esto al sistema de caché de Bing, que almacenaba "datos ocultos" de más de 20 000 repositorios. El contenido almacenado en caché supuestamente incluía información confidencial como claves de acceso, tokens y paquetes internos. Microsoft, según se informa, clasificó el problema como de baja gravedad y solo aplicó mitigaciones parciales.
Editor Notes: Timeline notes: This incident ID date is marked 02/26/2025 because the bulk of reporting centered on Lasso Security's investigation emerged at that time. (Lasso's report is dated 02/27/2025, though.) However, Lasso cites an August 2024 LinkedIn post by Zachary Horton identifying the problem months before significant press coverage: https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP. The incident ID was created 08/15/2025.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Microsoft , GitHub , Microsoft Copilot y Bing, perjudicó a GitHub users , GitHub repositories y GitHub.
Sistemas de IA presuntamente implicados: GitHub , Microsoft Copilot y Bing

Estadísticas de incidentes

ID
1174
Cantidad de informes
2
Fecha del Incidente
2025-02-26
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Miles de repositorios de GitHub expuestos, ahora privados, aún pueden accederse a través de Copilot
Wayback Copilot: uso de Copilot de Microsoft para exponer miles de repositorios privados de GitHub
Loading...
Miles de repositorios de GitHub expuestos, ahora privados, aún pueden accederse a través de Copilot

Miles de repositorios de GitHub expuestos, ahora privados, aún pueden accederse a través de Copilot

techcrunch.com

Loading...
Wayback Copilot: uso de Copilot de Microsoft para exponer miles de repositorios privados de GitHub

Wayback Copilot: uso de Copilot de Microsoft para exponer miles de repositorios privados de GitHub

lasso.security

Loading...
Miles de repositorios de GitHub expuestos, ahora privados, aún pueden accederse a través de Copilot
techcrunch.com · 2025
Traducido por IA

Investigadores de seguridad advierten que los datos expuestos en internet, aunque sea por un instante, pueden permanecer en chatbots de IA generativa en línea como Microsoft Copilot mucho después de que se vuelvan privados.

Miles de reposit…

Loading...
Wayback Copilot: uso de Copilot de Microsoft para exponer miles de repositorios privados de GitHub
lasso.security · 2025
Traducido por IA

En agosto de 2024, encontramos una publicación en LinkedIn (https://www.linkedin.com/posts/zak-horton_github-ai-privacy-activity-7225764812117487616-YcGP) que afirmaba que OpenAI se estaba entrenando con repositorios privados de GitHub y ex…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Bug in Facebook’s Anti-Spam Filter Allegedly Blocked Legitimate Posts about COVID-19

Bug in Facebook’s Anti-Spam Filter Allegedly Blocked Legitimate Posts about COVID-19

Mar 2020 · 1 informe
Loading...
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 informes
Loading...
Bug in Facebook’s Anti-Spam Filter Allegedly Blocked Legitimate Posts about COVID-19

Bug in Facebook’s Anti-Spam Filter Allegedly Blocked Legitimate Posts about COVID-19

Mar 2020 · 1 informe
Loading...
Biased Sentiment Analysis

Biased Sentiment Analysis

Oct 2017 · 7 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • b9764d4