Registro de citas para el Incidente 654

Description: A Microsoft engineer reported that Copilot Designer, an AI image generator, creates content depicting sex, violence, bias, and more. Despite raising concerns and suggesting improvements, the tool remains public, prompting a letter to the FTC.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Microsoft, perjudicó a General public y minors.

Estadísticas de incidentes

ID
654
Cantidad de informes
1
Fecha del Incidente
2024-03-06
Editores
Daniel Atherton
translated-es-Microsoft engineer sounds alarm on company's AI image generator in letter to FTC
businessinsider.com · 2024

translated-es-A Microsoft employee is asking the US government to look into the safety of one of his employer's generative AI tools after learning it has the capacity to produce seemingly inappropriate images.

On Wednesday, Shane Jones, a p…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents