Incidents associés
Abstrait
Les applications pratiques de l'intelligence artificielle s'étendent à divers éléments de la société, ce qui suscite un intérêt croissant pour les biais potentiels de ces algorithmes. L'analyse faciale, une application de l'intelligence artificielle, est de plus en plus utilisée dans des situations réelles. Par exemple, certaines organisations demandent aux candidats de répondre à des questions prédéfinies dans une vidéo enregistrée et utilisent la reconnaissance faciale pour analyser les visages des candidats potentiels. De plus, certaines entreprises développent des logiciels de reconnaissance faciale pour scanner les visages dans les foules et évaluer les menaces, en mentionnant spécifiquement le doute et la colère comme des émotions qui indiquent des menaces. Cette étude fournit des preuves que les logiciels de reconnaissance faciale interprètent les émotions différemment en fonction de la race de la personne. À l'aide d'un ensemble de données publiquement disponible de photos de joueurs de basket-ball professionnels, je compare l'analyse émotionnelle de deux services de reconnaissance faciale différents, Face et l'API Face de Microsoft. Les deux services interprètent les joueurs noirs comme ayant plus d'émotions négatives que les joueurs blancs ; cependant, il existe deux mécanismes différents. Face interprète systématiquement les joueurs noirs comme plus en colère que les joueurs blancs, même en contrôlant leur degré de sourire. Microsoft enregistre le mépris au lieu de la colère et interprète les joueurs noirs comme plus méprisants lorsque leurs expressions faciales sont ambiguës. Au fur et à mesure que le sourire des joueurs s'élargit, la disparité disparaît.
Cette découverte a des implications pour les individus, les organisations et la société, et elle contribue à la littérature croissante sur les biais et/ou l'impact disparate de l'IA.