Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2549

Incidents associés

Incident 4542 Rapports
Emotion Detection Models Showed Disparate Performance along Racial Lines

Loading...
Influence raciale sur les perceptions automatisées des émotions
papers.ssrn.com · 2018

Abstrait

Les applications pratiques de l'intelligence artificielle s'étendent à divers éléments de la société, ce qui suscite un intérêt croissant pour les biais potentiels de ces algorithmes. L'analyse faciale, une application de l'intelligence artificielle, est de plus en plus utilisée dans des situations réelles. Par exemple, certaines organisations demandent aux candidats de répondre à des questions prédéfinies dans une vidéo enregistrée et utilisent la reconnaissance faciale pour analyser les visages des candidats potentiels. De plus, certaines entreprises développent des logiciels de reconnaissance faciale pour scanner les visages dans les foules et évaluer les menaces, en mentionnant spécifiquement le doute et la colère comme des émotions qui indiquent des menaces. Cette étude fournit des preuves que les logiciels de reconnaissance faciale interprètent les émotions différemment en fonction de la race de la personne. À l'aide d'un ensemble de données publiquement disponible de photos de joueurs de basket-ball professionnels, je compare l'analyse émotionnelle de deux services de reconnaissance faciale différents, Face et l'API Face de Microsoft. Les deux services interprètent les joueurs noirs comme ayant plus d'émotions négatives que les joueurs blancs ; cependant, il existe deux mécanismes différents. Face interprète systématiquement les joueurs noirs comme plus en colère que les joueurs blancs, même en contrôlant leur degré de sourire. Microsoft enregistre le mépris au lieu de la colère et interprète les joueurs noirs comme plus méprisants lorsque leurs expressions faciales sont ambiguës. Au fur et à mesure que le sourire des joueurs s'élargit, la disparité disparaît.

Cette découverte a des implications pour les individus, les organisations et la société, et elle contribue à la littérature croissante sur les biais et/ou l'impact disparate de l'IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd