Description: Microsoft's AI research team accidentally exposed 38TB of sensitive data while publishing open-source training material on GitHub. The exposure included secrets, private keys, passwords, and internal Microsoft Teams messages. The team utilized Azure's Shared Access Signature (SAS) tokens for sharing, which were misconfigured, leading to the wide exposure of data.
Entidades
Ver todas las entidadesAlleged: Microsoft's AI Research Division developed an AI system deployed by Microsoft, which harmed Microsoft , Microsoft employees y Third parties relying on the confidentiality of the exposed data.
Estadísticas de incidentes
ID
571
Cantidad de informes
1
Fecha del Incidente
2023-06-22
Editores
Daniel Atherton
Applied Taxonomies
Clasificaciones de la Taxonomía CSETv1_Annotator-1
Detalles de la TaxonomíaIncident Number
The number of the incident in the AI Incident Database.
571
Informes del Incidente
Cronología de Informes
wiz.io · 2023
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
- El equipo de investigación de IA de Microsoft, mientras publicaba un conjunto de datos de capacitación de código abierto en GitHub, expuso accidentalmente 38 terabytes de datos privados adicionales, incluida una copia de seguridad en disco…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents