Description: During workplace training at Bunbury Prison in Western Australia, a trainer used Microsoft's Copilot AI chatbot to generate case study scenarios. The chatbot produced a scenario that included the real name of a former employee involved in a sexual harassment case, revealing sensitive information.
Entidades
Ver todas las entidadesAlleged: Microsoft developed an AI system deployed by Charlotte Ingham y Western Australia Department of Justice, which harmed Western Australia Department of Justice , Bronwyn Hendry y Western Australia Department of Justice senior staff members.
Estadísticas de incidentes
ID
773
Cantidad de informes
1
Fecha del Incidente
2024-08-20
Editores
Daniel Atherton
Informes del Incidente
Cronología de Informes
abc.net.au · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
The psychosocial safety training company that used the full name of an alleged sexual harassment victim in a course at her former workplace says artificial intelligence (AI) is to blame.
Psychosocial Leadership trainer Charlotte Ingham said…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents