Incidents associés

L'"action immédiate" de Google sur l'étiquetage par l'IA des Noirs en tant que gorilles consistait simplement à bloquer le mot, ainsi que le chimpanzé et le singe, selon des rapports
Cet article date de plus d'un an
Cet article date de plus d'un an
Après que Google a été critiqué en 2015 pour un algorithme de reconnaissance d'image qui marquait automatiquement les photos de personnes noires comme des "gorilles", l'entreprise a promis "une action immédiate" pour empêcher toute répétition de l'erreur.
Cette action visait simplement à empêcher Google Photos d'étiqueter une image comme un gorille, un chimpanzé ou un singe - même des images des primates eux-mêmes.
C'est la conclusion tirée par le magazine Wired, qui a testé plus de 40 000 images d'animaux sur le service. Les photos ont étiqueté avec précision des images de pandas et de caniches, mais n'ont toujours donné aucun résultat pour les grands singes et les singes – malgré la découverte précise de babouins, de gibbons et d'orangs-outans.
Google a confirmé que les termes avaient été supprimés des recherches et des balises d'image en conséquence directe de l'incident de 2015, déclarant au magazine que : "La technologie d'étiquetage d'image est encore précoce et malheureusement, elle est loin d'être parfaite".
La cécité des gorilles se retrouve à d'autres endroits sur la plate-forme de Google : Google Lens, une application d'appareil photo qui identifie les objets dans les images, refusera également de reconnaître les gorilles. Mais Google Assistant identifiera correctement les primates, tout comme Google Cloud Vision, le service de reconnaissance d'images interentreprises de Google.
L'échec de l'entreprise à développer une solution plus durable au cours des deux années suivantes montre à quel point la technologie d'apprentissage automatique, qui sous-tend la fonction de reconnaissance d'image, est encore en train de mûrir.
Ces technologies sont souvent décrites comme une « boîte noire », capable de produire des résultats puissants, mais avec peu de capacité de la part de leurs créateurs à comprendre exactement comment et pourquoi ils prennent les décisions qu'ils prennent.
Cela est particulièrement vrai de la première vague de systèmes de reconnaissance d'images, dont Google Photos faisait partie. Au même moment où ce produit a été lancé, Flickr a publié une fonctionnalité similaire, le marquage automatique, qui présentait un ensemble de problèmes presque identiques.
La plate-forme de partage de photos appartenant à Yahoo a qualifié une photo d'un homme noir de "singe" et une photo du camp de concentration de Dachau de "jungle gym". La réponse de Flickr a été à peu près la même que celle de Google : la société a apparemment entièrement supprimé le mot "singe" de son lexique de marquage.