Incidents associés

Google Photos utilise un logiciel sophistiqué de reconnaissance faciale pour identifier non seulement les individus, mais également des catégories spécifiques d'objets et de types de photos, comme la nourriture, les chats et les horizons.
Cependant, les programmes de reconnaissance d'images sont loin d'être parfaits ; ils se trompent parfois de manière comique, et parfois de manière offensive, comme l'a récemment découvert un utilisateur de Twitter.
VOIR AUSSI : Facebook développe une technologie capable de vous reconnaître sur les photos, même si votre visage ne s'affiche pas
En parcourant son application Google Photos, Jacky Alciné, un habitant de Brooklyn, a remarqué que des photos de lui et d'un ami, tous deux noirs, étaient taguées sous l'étiquette "Gorilles". Il a partagé une capture d'écran du label raciste sur Twitter, qui a été repéré par Yahoo Tech.
Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. pic.twitter.com/SMkMCsNVX4
— diri noir avec banan (@jackyalcine) 29 juin 2015
Yonatan Zunger, l'architecte social en chef de Google, a réagi rapidement.
@jackyalcine Putain de merde. Google+ CA ici. Non, ce n'est pas ainsi que vous déterminez le marché cible de quelqu'un. C'est 100% Pas OK.
— Yonatan Zunger (@yonatanzunger) 29 juin 2015
Dans un tweetstorm ultérieur, Zunger a déclaré que Google réunissait une équipe pour résoudre le problème, et l'étiquette a été supprimée de son application dans les 15 heures, a confirmé Alciné à Mashable. Zunger a déclaré que Google envisageait également des correctifs à plus long terme. Un porte-parole de Google a également envoyé une déclaration officielle :
«Nous sommes consternés et sincèrement désolés que cela se soit produit. Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir.
Ce n'est malheureusement pas la première fois qu'un logiciel diffame par inadvertance des personnes à la peau foncée. En mai, la fonction de marquage automatique de Flickr a marqué une personne noire comme un "singe", bien qu'elle ait également mis la même étiquette sur une femme blanche. Et il y a des années, certaines webcams sur les ordinateurs portables fabriqués par HP ne suivaient pas les visages des Noirs, même si elles le faisaient pour les utilisateurs blancs.
Au moins dans le cas de Google Photos, l'incident semble être isolé, car il ne semble pas que d'autres utilisateurs se soient plaints de balises offensantes similaires. Mais c'est un rappel que, bien que les ordinateurs commencent à faire un très bon travail de simulation de la vision humaine, ils sont loin de simuler la sensibilité humaine.