Incidents associés

La technologie de reconnaissance faciale a progressé au point où elle interprète désormais les émotions dans les expressions faciales. Ce type d'analyse est de plus en plus utilisé dans la vie quotidienne. Par exemple, les entreprises peuvent utiliser un logiciel de reconnaissance faciale pour aider à la décision d'embauche. Autres programmes scannent les visages dans les foules pour identifier les menaces à la sécurité publique.
Malheureusement, cette technologie peine à interpréter les émotions des visages noirs. Ma nouvelle étude, publiée le mois dernier, montre que la technologie d'analyse émotionnelle attribue plus d'émotions négatives aux visages des hommes noirs qu'aux visages des hommes blancs.
Ce n'est pas la première fois que les programmes de reconnaissance faciale se révèlent biaisés. Google a étiqueté les visages noirs comme des gorilles . Les caméras ont identifié les visages asiatiques clignotent. Les programmes de reconnaissance faciale ont eu du mal à identifier correctement le sexe des personnes à la peau plus foncée.
Mon travail contribue à un appel croissant [pour mieux comprendre le biais caché dans les logiciels d'intelligence artificielle](https://www.nytimes.com/2016/06/26/opinion/sunday/artificial-intelligences-white-guy-problem. html).
Biais de mesure
Pour examiner le biais dans les systèmes de reconnaissance faciale qui analysent les émotions des gens, j'ai utilisé un ensemble de données de 400 photos de joueurs NBA de la saison 2016 à 2017, car les joueurs sont similaires dans leurs vêtements, leur athlétisme, leur âge et leur sexe. De plus, comme il s'agit de portraits professionnels, les joueurs regardent la caméra sur la photo.
J'ai passé les images à travers deux types bien connus de logiciels de reconnaissance émotionnelle. Les deux joueurs noirs ont attribué des scores émotionnels plus négatifs en moyenne, peu importe à quel point ils souriaient.
Prenons par exemple les photos officielles de la NBA de Darren Collison et de [Gordon Hayward](https : //www.basketball-reference.com/players/h/haywago01.html). Les deux joueurs sourient et, selon le programme de reconnaissance et d'analyse faciale Face++, Darren Collison et Gordon Hayward ont des scores de sourire similaires : 48,7 et 48,1 sur 100, respectivement.
Cependant, Face ++ évalue l'expression de Hayward à 59,7% de bonheur et 0,13% de colère et celle de Collison à 39,2% de bonheur et 27% de colère. Collison est considéré comme presque aussi en colère qu'il est heureux et bien plus en colère que Hayward – malgré le programme de reconnaissance faciale lui-même reconnaissant que les deux joueurs sourient.
En revanche, Microsoft's Face API considérait les deux hommes comme heureux. Pourtant, Collison est considéré comme moins heureux que Hayward, avec des scores de bonheur de 98 et 93 %, respectivement. Malgré son sourire, Collison est même marqué avec un peu de mépris, alors que Hayward n'en a aucun.
À travers toutes les images de la NBA, le même schéma émerge. En moyenne, Face++ évalue les visages noirs comme deux fois plus en colère que les visages blancs. Face API classe les visages noirs comme trois fois plus méprisants que les visages blancs. Après avoir apparié les joueurs en fonction de leurs sourires, les deux programmes d'analyse faciale sont encore plus susceptibles d'attribuer les émotions négatives de colère ou de mépris aux visages noirs.
Stéréotypé par l'IA
Mon étude montre que les programmes de reconnaissance faciale présentent deux types de biais distincts.
Premièrement, les visages noirs étaient systématiquement notés comme plus en colère que les visages blancs pour chaque sourire. Face++ a montré ce type de biais. Deuxièmement, les visages noirs étaient toujours notés comme plus en colère s'il y avait une ambiguïté sur leur expression faciale. Face API a affiché ce type de disparité. Même si les visages noirs sourient partiellement, mon analyse a montré que les systèmes assumaient plus d'émotions négatives par rapport à leurs homologues blancs avec des expressions similaires. Les scores émotionnels moyens étaient beaucoup plus proches d'une race à l'autre, mais il y avait encore des différences notables pour les visages noirs et blancs.
Cette observation est conforme à d'autres recherches, qui suggèrent que les professionnels noirs doivent amplifier les émotions positives pour recevoir la parité dans leurs évaluations de performance au travail. Des études montrent que les gens perçoivent les hommes noirs comme plus [physiquement menaçants](https://www.washingtonpost.com/news/morning-mix/wp/2017/03/14/psychologists-we-see-black-men-as- plus grands et plus forts que les hommes blancs, même quand ils ne le sont pas/) que les hommes blancs, même lorsqu'ils sont de la même taille.
Certains chercheurs affirment que la technologie de reconnaissance faciale est plus objective que les humains. Mais mon étude suggère que la reconnaissance faciale reflète les mêmes biais que les gens ont. Les expressions faciales des hommes noirs sont notées avec des émotions associées à des comportements menaçants plus souvent que les hommes blancs , même quand ils sourient. Il y a de bonnes raisons de croire que l'utilisation de la reconnaissance faciale pourrait formaliser des stéréotypes préexistants dans des algorithmes, les intégrant automatiquement dans la vie quotidienne.
Jusqu'à ce que la reconnaissance faciale évalue les visages en noir et blanc de la même manière, les Noirs devront peut-être exagérer leurs expressions faciales positives - essentiellement sourire davantage - pour réduire l'ambiguïté et les interprétations potentiellement négatives de la technologie.
Bien qu'innovante, l'intelligence artificielle peut perpétuer et exacerber les dynamiques de pouvoir existantes, entraînant un impact disparate sur les groupes raciaux/ethniques. Une certaine responsabilité sociétale est nécessaire pour garantir l'équité à tous les groupes car la reconnaissance faciale, comme la plupart des intelligences artificielles, est souvent invisible pour les personnes les plus touchées par ses décisions.