Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2521

Incidentes Asociados

Incidente 4542 Reportes
Emotion Detection Models Showed Disparate Performance along Racial Lines

Loading...
La tecnología de lectura de emociones falla la prueba de prejuicio racial
theconversation.com · 2019

La tecnología de reconocimiento facial ha progresado hasta el punto en que ahora interpreta las emociones en las expresiones faciales. Este tipo de análisis se utiliza cada vez más en la vida diaria. Por ejemplo, las empresas pueden usar software de reconocimiento facial para ayudar con las decisiones de contratación. Otros programas escanean los rostros de las multitudes para identificar amenazas a la seguridad pública.

Desafortunadamente, esta tecnología tiene dificultades para interpretar las emociones de los rostros negros. Mi nuevo estudio, publicado el mes pasado, muestra que la tecnología de análisis emocional asigna más emociones negativas a los rostros de los hombres negros que a los rostros de los hombres blancos.

Esta no es la primera vez que se demuestra que los programas de reconocimiento facial están sesgados. Google etiquetó caras negras como gorilas . Las cámaras identificaron rostros asiáticos parpadeando. Los programas de reconocimiento facial tuvieron problemas para [identificar el género de las personas con piel más oscura] correctamente (https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html).

Mi trabajo contribuye a un llamado creciente [para comprender mejor el sesgo oculto en el software de inteligencia artificial](https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem. html).

Sesgo de medición

Para examinar el sesgo en los sistemas de reconocimiento facial que analizan las emociones de las personas, utilicé un conjunto de datos de 400 fotos de jugadores de la NBA de la temporada 2016 a 2017, porque los jugadores son similares en su vestimenta, atletismo, edad y género. Además, dado que se trata de retratos profesionales, los jugadores miran a la cámara en la imagen.

Pasé las imágenes por dos tipos bien conocidos de software de reconocimiento emocional. Ambos asignaron a los jugadores negros puntajes emocionales más negativos en promedio, sin importar cuánto sonrieran.

Por ejemplo, considere las imágenes oficiales de la NBA de Darren Collison y [Gordon Hayward](https: //www.basketball-reference.com/players/h/haywago01.html). Ambos jugadores sonríen y, según el programa de análisis y reconocimiento facial Face++, Darren Collison y Gordon Hayward tienen puntuaciones de sonrisa similares: 48,7 y 48,1 sobre 100, respectivamente.

Sin embargo, Face++ califica la expresión de Hayward como 59,7 por ciento feliz y 0,13 por ciento enojado y la expresión de Collison como 39,2 por ciento feliz y 27 por ciento enojado. Se ve a Collison casi tan enojado como feliz y mucho más enojado que Hayward, a pesar de que el propio programa de reconocimiento facial reconoce que ambos jugadores están sonriendo.

Por el contrario, Microsoft's Face API consideraba felices a ambos hombres. Aún así, se considera que Collison es menos feliz que Hayward, con puntajes de felicidad del 98 y 93 por ciento, respectivamente. A pesar de su sonrisa, Collison incluso se califica con una pequeña cantidad de desprecio, mientras que Hayward no tiene ninguno.

En todas las imágenes de la NBA, surge el mismo patrón. En promedio, Face++ califica a las caras negras como dos veces más enfadadas que las caras blancas. Face API clasifica las caras negras como tres veces más despectivas que las caras blancas. Después de hacer coincidir a los jugadores en función de sus sonrisas, es más probable que ambos programas de análisis facial asignen las emociones negativas de ira o desprecio a las caras negras.

Estereotipado por IA

Mi estudio muestra que los programas de reconocimiento facial exhiben dos tipos distintos de sesgo.

En primer lugar, las caras negras se puntuaron consistentemente como más enfadadas que las caras blancas en cada sonrisa. Face++ mostró este tipo de sesgo. En segundo lugar, las caras negras siempre se calificaron como más enojadas si había alguna ambigüedad en su expresión facial. Face API mostró este tipo de disparidad. Incluso si las caras negras sonríen parcialmente, mi análisis mostró que los sistemas asumieron más emociones negativas en comparación con sus contrapartes blancas con expresiones similares. Los puntajes emocionales promedio fueron mucho más cercanos en todas las razas, pero aún hubo diferencias notables para las caras en blanco y negro.

Esta observación se alinea con otra investigación, que sugiere que los profesionales negros deben amplificar las emociones positivas para recibir la paridad en las evaluaciones de desempeño en el lugar de trabajo. Los estudios muestran que las personas perciben a los hombres negros como más [físicamente amenazantes](https://www.washingtonpost.com/news/morning-mix/wp/2017/03/14/psychologists-we-see-black-men-as- más grandes y más fuertes que los hombres blancos, incluso cuando no lo son / que los hombres blancos, incluso cuando son del mismo tamaño.

Algunos investigadores argumentan que la tecnología de reconocimiento facial es más objetiva que los humanos. Pero mi estudio sugiere que el reconocimiento facial refleja los mismos sesgos que tienen las personas. Las expresiones faciales de los hombres negros se califican con emociones asociadas con comportamientos amenazantes más a menudo que los hombres blancos , incluso cuando están sonriendo. Hay buenas razones para creer que el uso del reconocimiento facial podría formalizar estereotipos preexistentes en algoritmos, incrustándolos automáticamente en la vida cotidiana.

Hasta que el reconocimiento facial evalúe las caras en blanco y negro de manera similar, es posible que las personas de raza negra deban exagerar sus expresiones faciales positivas, esencialmente sonreír más, para reducir la ambigüedad y las interpretaciones potencialmente negativas de la tecnología.

Aunque innovadora, la inteligencia artificial puede perpetrar y exacerbar las dinámicas de poder existentes, lo que lleva a impacto dispar entre grupos raciales/étnicos. Es necesaria cierta responsabilidad social para garantizar la equidad para todos los grupos porque el reconocimiento facial, como la mayoría de la inteligencia artificial, a menudo es invisible para las personas más afectadas por sus decisiones.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd