Registro de citas para el Incidente 102

Description: A study found that voice recognition tools from Apple, Amazon, Google, IBM, and Microsoft disproportionately made errors when transcribing black speakers.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Microsoft , IBM , Google , Apple y Amazon, perjudicó a Black people.

Estadísticas de incidentes

ID
102
Cantidad de informes
2
Fecha del Incidente
2020-03-23
Editores
Sean McGregor, Khoa Lam
Los asistentes de voz personales luchan con las voces negras, muestra un nuevo estudio
theverge.com · 2020

Los sistemas de reconocimiento de voz tienen más problemas para entender las voces de los usuarios negros que las de los usuarios blancos, según un nuevo estudio de Stanford.

Los investigadores utilizaron herramientas de reconocimiento de v…

Disparidades raciales en el reconocimiento de voz automatizado
pnas.org · 2020

Los sistemas de reconocimiento de voz automatizado (ASR) ahora se utilizan en una variedad de aplicaciones para convertir el lenguaje hablado en texto, desde asistentes virtuales hasta subtítulos y computación de manos libres. Al analizar u…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.