Incidents associés

Deux ans plus tard, Google résout le problème de "l'algorithme raciste" en supprimant l'étiquette "gorille" du classificateur d'images
En 2015, un développeur de logiciels noir nommé Jacky Alciné a révélé que le classificateur d'images utilisé par Google Photos qualifiait les Noirs de "gorilles".
Google s'est excusé abondamment et s'est mis au travail sur le bogue. Deux ans plus tard, Google a simplement effacé les gorilles (et, semble-t-il, les chimpanzés et les singes) du lexique des étiquettes que son classificateur d'images peut appliquer ou utiliser pour effectuer des recherches, rendant ces animaux introuvables et en quelque sorte invisibles pour l'IA qui alimente l'image de Google. capacités de recherche.
La capacité de classer les images comme contenant des gorilles reste dans certains produits Google, comme l'API Cloud Vision.
Un porte-parole de Google a confirmé que "gorille" a été censuré des recherches et des balises d'image après l'incident de 2015, et que "chimpanzé", "chimpanzé" et "singe" sont également bloqués aujourd'hui. "La technologie d'étiquetage d'images est encore précoce et malheureusement, elle est loin d'être parfaite", a écrit le porte-parole dans un e-mail, soulignant une fonctionnalité de Google Photos qui permet aux utilisateurs de signaler des erreurs. La prudence de Google concernant les images de gorilles illustre une lacune de la technologie d'apprentissage automatique existante. Avec suffisamment de données et de puissance de calcul, les logiciels peuvent être formés pour catégoriser les images ou transcrire la parole avec un haut niveau de précision. Mais cela ne peut pas facilement aller au-delà de l'expérience de cette formation. Et même les meilleurs algorithmes n'ont pas la capacité d'utiliser le bon sens, ou des concepts abstraits, pour affiner leur interprétation du monde comme le font les humains.
Quand il s'agit de gorilles, Google Photos reste aveugle [Tom Simonite/Wired]