Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1438

Incidents associés

Incident 1131 Rapport
Facebook's AI Put "Primates" Label on Video Featuring Black Men

Loading...
Facebook s'excuse après A.I. Met l'étiquette 'Primates' sur une vidéo d'hommes noirs
nytimes.com · 2021

Les utilisateurs de Facebook qui ont récemment regardé une vidéo d'un tabloïd britannique mettant en vedette des hommes noirs ont vu une invite automatisée du réseau social leur demandant s'ils souhaitaient "continuer à voir des vidéos sur les primates", ce qui a amené l'entreprise à enquêter et à désactiver la fonction alimentée par l'intelligence artificielle. qui a poussé le message.

Vendredi, Facebook s'est excusé pour ce qu'il a appelé "une erreur inacceptable" et a déclaré qu'il examinait la fonction de recommandation pour "empêcher que cela ne se reproduise".

La vidéo, datée du 27 juin 2020, était du Daily Mail et présentait des clips d'hommes noirs lors d'altercations avec des civils blancs et des policiers. Il n'avait aucun lien avec les singes ou les primates.

Darci Groves, ancienne responsable de la conception de contenu chez Facebook, a déclaré qu'un ami lui avait récemment envoyé une capture d'écran de l'invite. Elle l'a ensuite posté sur un forum de commentaires sur les produits pour les employés actuels et anciens de Facebook. En réponse, un chef de produit pour Facebook Watch, le service vidéo de l'entreprise, l'a qualifié d '"inacceptable" et a déclaré que l'entreprise "recherchait la cause première".

Mme Groves a déclaré que l'invite était "horrible et flagrante".

Dani Lever, une porte-parole de Facebook, a déclaré dans un communiqué : « Comme nous l'avons dit, bien que nous ayons apporté des améliorations à notre IA, nous savons qu'elle n'est pas parfaite et nous avons encore des progrès à faire. Nous nous excusons auprès de tous ceux qui ont pu voir ces recommandations offensantes. »

Google, Amazon et d'autres entreprises technologiques sont sous surveillance depuis des années pour les biais au sein de leurs systèmes d'intelligence artificielle, en particulier autour des questions de race. Des études ont montré que la technologie de reconnaissance faciale est biaisée contre les personnes de couleur et a plus de mal à les identifier, ce qui conduit à des incidents où des Noirs ont été victimes de discrimination ou arrêtés en raison d'une erreur informatique.

Dans un exemple en 2015, Google Photos a étiqueté par erreur des photos de Noirs comme des "gorilles", pour lesquels Google a dit qu'il était "vraiment désolé" et s'efforcerait de résoudre le problème immédiatement. Plus de deux ans plus tard, Wired a découvert que la solution de Google consistait à censurer le mot "gorille" des recherches, tout en bloquant "chimpanzé", "chimpanzé" et "singe".

Facebook possède l'un des plus grands référentiels d'images téléchargées par les utilisateurs au monde sur lequel former ses algorithmes de reconnaissance faciale et d'objets. La société, qui adapte le contenu aux utilisateurs en fonction de leurs habitudes de navigation et de visionnage passées, demande parfois aux utilisateurs s'ils souhaitent continuer à voir les publications dans des catégories connexes. Il n'était pas clair si des messages comme celui des "primates" étaient répandus.

Facebook et son application de partage de photos, Instagram, ont lutté avec d'autres problèmes liés à la race. Après le Championnat d'Europe de football de juillet, par exemple, trois membres noirs de l'équipe nationale de football d'Angleterre ont été victimes d'abus racistes sur le réseau social pour avoir raté des tirs au but lors du match de championnat.

Les problèmes raciaux ont également provoqué des conflits internes chez Facebook. En 2016, Mark Zuckerberg, le directeur général, a demandé aux employés d'arrêter de rayer l'expression «Black Lives Matter» et de la remplacer par «All Lives Matter» dans un espace commun au siège de l'entreprise à Menlo Park, en Californie. Des centaines d'employés ont également organisé une grève virtuelle l'année dernière pour protester contre le traitement par l'entreprise d'un message du président Donald J. Trump sur le meurtre de George Floyd à Minneapolis.

La société a ensuite embauché un vice-président des droits civils et a publié un audit des droits civils. Dans un rapport annuel sur la diversité en juillet, Facebook a déclaré que 4,4 % de ses employés basés aux États-Unis étaient noirs, contre 3,9 % l'année précédente.

Mme Groves, qui a quitté Facebook au cours de l'été après quatre ans, a déclaré dans une interview qu'une série de faux pas au sein de l'entreprise suggérait que la gestion des problèmes raciaux n'était pas une priorité pour ses dirigeants.

"Facebook ne peut pas continuer à faire ces erreurs et ensuite dire:" Je suis désolé "", a-t-elle déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd