Incidents associés

Lorsque Jacky Alcine, originaire de Brooklyn, s'est connecté à Google Photos dimanche soir, il a été choqué de trouver un album intitulé "Gorilles", dans lequel le logiciel de reconnaissance faciale le catégorisait, lui et son ami, comme des primates. Immédiatement, Alcine a posté sur Twitter : « Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. Ce commentaire a suscité plus de 1 000 retweets et une discussion en ligne sur le caractère choquant de la situation. Un utilisateur a répondu: "C'est complètement inacceptable et très bas. Je suis tellement désolé que vous ayez dû tomber sur une ignorance aussi blessante.
Alcine a ajouté une série de tweets de suivi, dont un qui disait : « Comme je comprends COMMENT cela se produit ; le problème est plus sur le POURQUOI. C'est ainsi que vous déterminez le marché cible de quelqu'un.
Yonatan Zunger, l'architecte en chef des réseaux sociaux de Google, n'a pas tardé à résoudre le problème. Quelques heures après le message original d'Alcine, Zunger a tweeté: "Holy f ***. Google+ CA ici. Non, ce n'est pas ainsi que vous déterminez le marché cible de quelqu'un. C'est 100% pas OK. L'équipe s'est immédiatement mise au travail pour examiner les données et résoudre le problème. Zunger a suivi Alcine le lendemain matin juste pour s'assurer que tout allait bien.
"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré un porte-parole de Google. "Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir.
Il est important de noter que les Afro-Américains ne sont pas le seul groupe mal étiqueté par Google Photos. Comme le note Zunger dans un tweet, « Jusqu'à récemment, [Google Photos] confondait les visages blancs avec les chiens et les phoques. L'apprentissage automatique est difficile."
Brian Brackeen, PDG de la société de reconnaissance faciale Kairos, affirme que les machines peuvent faire des suppositions culturellement inappropriées lorsqu'elles ne sont pas correctement formées. "C'est effrayant comme la façon dont un enfant apprend", a-t-il déclaré.
Ce n'est pas la première fois qu'un logiciel de reconnaissance faciale, basé sur l'apprentissage automatique et la vision par ordinateur, bousille son identification des personnes.
En mai dernier, le logiciel de reconnaissance faciale de Flickr a qualifié les personnes noires et blanches d'"animaux" et de "singes" (ces étiquettes ont été rapidement supprimées). De plus, de nombreuses photos de danseurs amérindiens ont été étiquetées avec le mot «costume», ce qui a ajouté une grande insulte à la communauté.
En 2009, les caméras à détection de visage de Nikon ont été accusées d'être « racistes ». Plusieurs fois, lorsqu'un visage asiatique a été photographié, un message a clignoté sur l'écran demandant : "Quelqu'un a-t-il cligné des yeux ?" - même quand leurs yeux étaient grands ouverts.En tant que société japonaise, Nikon a apparemment négligé de concevoir son appareil photo en pensant aux yeux asiatiques.
Quelques mois après la polémique sur Nikon, une vidéo Youtube sur un ordinateur HP MediaSmart est devenue virale. Bien qu'il ait été conçu pour suivre les visages de tous les utilisateurs, il ne pouvait pas reconnaître l'homme afro-américain qui se déplaçait devant lui. Cependant, il a rapidement commencé à suivre le visage d'une femme blanche dès qu'elle passait devant la caméra.
Ces points ne doivent pas faire honte à Google, Nikon ou HP, qui sont des entreprises qui n'ont aucune intention malveillante derrière leur logiciel de reconnaissance faciale. Le logiciel continuera d'être loin d'être parfait dans un avenir prévisible.