Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 85

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google Photos identifie deux Afro-Américains comme des gorilles grâce à un logiciel de reconnaissance faciale
forbes.com · 2015

Lorsque Jacky Alcine, originaire de Brooklyn, s'est connecté à Google Photos dimanche soir, il a été choqué de trouver un album intitulé "Gorilles", dans lequel le logiciel de reconnaissance faciale le catégorisait, lui et son ami, comme des primates. Immédiatement, Alcine a posté sur Twitter : « Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. Ce commentaire a suscité plus de 1 000 retweets et une discussion en ligne sur le caractère choquant de la situation. Un utilisateur a répondu: "C'est complètement inacceptable et très bas. Je suis tellement désolé que vous ayez dû tomber sur une ignorance aussi blessante.

Alcine a ajouté une série de tweets de suivi, dont un qui disait : « Comme je comprends COMMENT cela se produit ; le problème est plus sur le POURQUOI. C'est ainsi que vous déterminez le marché cible de quelqu'un.

Yonatan Zunger, l'architecte en chef des réseaux sociaux de Google, n'a pas tardé à résoudre le problème. Quelques heures après le message original d'Alcine, Zunger a tweeté: "Holy f ***. Google+ CA ici. Non, ce n'est pas ainsi que vous déterminez le marché cible de quelqu'un. C'est 100% pas OK. L'équipe s'est immédiatement mise au travail pour examiner les données et résoudre le problème. Zunger a suivi Alcine le lendemain matin juste pour s'assurer que tout allait bien.

"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré un porte-parole de Google. "Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir.

Il est important de noter que les Afro-Américains ne sont pas le seul groupe mal étiqueté par Google Photos. Comme le note Zunger dans un tweet, « Jusqu'à récemment, [Google Photos] confondait les visages blancs avec les chiens et les phoques. L'apprentissage automatique est difficile."

Brian Brackeen, PDG de la société de reconnaissance faciale Kairos, affirme que les machines peuvent faire des suppositions culturellement inappropriées lorsqu'elles ne sont pas correctement formées. "C'est effrayant comme la façon dont un enfant apprend", a-t-il déclaré.

Ce n'est pas la première fois qu'un logiciel de reconnaissance faciale, basé sur l'apprentissage automatique et la vision par ordinateur, bousille son identification des personnes.

En mai dernier, le logiciel de reconnaissance faciale de Flickr a qualifié les personnes noires et blanches d'"animaux" et de "singes" (ces étiquettes ont été rapidement supprimées). De plus, de nombreuses photos de danseurs amérindiens ont été étiquetées avec le mot «costume», ce qui a ajouté une grande insulte à la communauté.

En 2009, les caméras à détection de visage de Nikon ont été accusées d'être « racistes ». Plusieurs fois, lorsqu'un visage asiatique a été photographié, un message a clignoté sur l'écran demandant : "Quelqu'un a-t-il cligné des yeux ?" - même quand leurs yeux étaient grands ouverts.En tant que société japonaise, Nikon a apparemment négligé de concevoir son appareil photo en pensant aux yeux asiatiques.

Quelques mois après la polémique sur Nikon, une vidéo Youtube sur un ordinateur HP MediaSmart est devenue virale. Bien qu'il ait été conçu pour suivre les visages de tous les utilisateurs, il ne pouvait pas reconnaître l'homme afro-américain qui se déplaçait devant lui. Cependant, il a rapidement commencé à suivre le visage d'une femme blanche dès qu'elle passait devant la caméra.

Ces points ne doivent pas faire honte à Google, Nikon ou HP, qui sont des entreprises qui n'ont aucune intention malveillante derrière leur logiciel de reconnaissance faciale. Le logiciel continuera d'être loin d'être parfait dans un avenir prévisible.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd