Incidentes Asociados
Abstracto
Las aplicaciones prácticas de la inteligencia artificial se están expandiendo a varios elementos de la sociedad, lo que genera un interés creciente en los posibles sesgos de dichos algoritmos. El análisis facial, una aplicación de la inteligencia artificial, se usa cada vez más en situaciones reales. Por ejemplo, algunas organizaciones les dicen a los candidatos que respondan preguntas predefinidas en un video grabado y usen el reconocimiento facial para analizar las caras de los candidatos potenciales. Además, algunas empresas están desarrollando software de reconocimiento facial para escanear los rostros en multitudes y evaluar amenazas, mencionando específicamente la duda y la ira como emociones que indican amenazas. Este estudio proporciona evidencia de que el software de reconocimiento facial interpreta las emociones de manera diferente según la raza de la persona. Usando un conjunto de datos disponible públicamente de imágenes de jugadores de baloncesto profesionales, comparo el análisis emocional de dos servicios de reconocimiento facial diferentes, Face y Face API de Microsoft. Ambos servicios interpretan que los jugadores negros tienen más emociones negativas que los jugadores blancos; sin embargo, hay dos mecanismos diferentes. Face siempre interpreta a los jugadores negros como más enojados que los jugadores blancos, incluso controlando su grado de sonrisa. Microsoft registra desprecio en lugar de ira, e interpreta a los jugadores negros como más despectivos cuando sus expresiones faciales son ambiguas. A medida que se amplía la sonrisa de los jugadores, la disparidad desaparece.
Este hallazgo tiene implicaciones para las personas, las organizaciones y la sociedad, y contribuye a la creciente literatura sobre el sesgo y/o el impacto dispar en la IA.