Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 104

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
La solution de Google au racisme algorithmique accidentel : bannir les gorilles
theguardian.com · 2018

L'"action immédiate" de Google sur l'étiquetage par l'IA des Noirs en tant que gorilles consistait simplement à bloquer le mot, ainsi que le chimpanzé et le singe, selon des rapports

Cet article date de plus d'un an

Cet article date de plus d'un an

Après que Google a été critiqué en 2015 pour un algorithme de reconnaissance d'image qui marquait automatiquement les photos de personnes noires comme des "gorilles", l'entreprise a promis "une action immédiate" pour empêcher toute répétition de l'erreur.

Cette action visait simplement à empêcher Google Photos d'étiqueter une image comme un gorille, un chimpanzé ou un singe - même des images des primates eux-mêmes.

C'est la conclusion tirée par le magazine Wired, qui a testé plus de 40 000 images d'animaux sur le service. Les photos ont étiqueté avec précision des images de pandas et de caniches, mais n'ont toujours donné aucun résultat pour les grands singes et les singes – malgré la découverte précise de babouins, de gibbons et d'orangs-outans.

Google a confirmé que les termes avaient été supprimés des recherches et des balises d'image en conséquence directe de l'incident de 2015, déclarant au magazine que : "La technologie d'étiquetage d'image est encore précoce et malheureusement, elle est loin d'être parfaite".

La cécité des gorilles se retrouve à d'autres endroits sur la plate-forme de Google : Google Lens, une application d'appareil photo qui identifie les objets dans les images, refusera également de reconnaître les gorilles. Mais Google Assistant identifiera correctement les primates, tout comme Google Cloud Vision, le service de reconnaissance d'images interentreprises de Google.

L'échec de l'entreprise à développer une solution plus durable au cours des deux années suivantes montre à quel point la technologie d'apprentissage automatique, qui sous-tend la fonction de reconnaissance d'image, est encore en train de mûrir.

Ces technologies sont souvent décrites comme une « boîte noire », capable de produire des résultats puissants, mais avec peu de capacité de la part de leurs créateurs à comprendre exactement comment et pourquoi ils prennent les décisions qu'ils prennent.

Cela est particulièrement vrai de la première vague de systèmes de reconnaissance d'images, dont Google Photos faisait partie. Au même moment où ce produit a été lancé, Flickr a publié une fonctionnalité similaire, le marquage automatique, qui présentait un ensemble de problèmes presque identiques.

La plate-forme de partage de photos appartenant à Yahoo a qualifié une photo d'un homme noir de "singe" et une photo du camp de concentration de Dachau de "jungle gym". La réponse de Flickr a été à peu près la même que celle de Google : la société a apparemment entièrement supprimé le mot "singe" de son lexique de marquage.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd