Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 87

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google Photos identifie les Noirs comme des « gorilles » et place les photos dans un dossier spécial
independent.co.uk · 2015

L'algorithme de reconnaissance d'images de Google étiquette les photos de personnes noires comme des gorilles et les place dans un album spécial.

Le logiciel de reconnaissance automatique est destiné à repérer les caractéristiques des photos et à les trier ensemble, de sorte que toutes les photos de voitures dans la bibliothèque d'une personne puissent être trouvées au même endroit, par exemple. Mais l'outil semble identifier les Noirs comme des animaux.

Le problème a été repéré par Jacky Alcine, qui a déclaré que les photos prises avec un ami étaient triées dans l'étiquette du gorille. Aucune autre image que celles de lui et de son ami n'y apparaissait, a déclaré Alcine.

Un ingénieur de Google, Yonatan Zunger, a tweeté à Alcine pour dire que le problème avait été résolu, bien qu'Alcine ait signalé que des images apparaissaient toujours dans la catégorie.

Les tweets de Zunger semblaient suggérer que l'outil avait cessé d'identifier les images avec l'étiquette de gorille, pour arrêter le problème affectant quelqu'un d'autre. Il a déclaré que les ingénieurs amélioreraient également le code à long terme.

"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré Google dans un communiqué. « Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître.

"Il reste clairement beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir."

Le problème est presque identique à celui qui a frappé le site de photos Flickr plus tôt cette année, lorsqu'il a introduit des fonctionnalités très similaires. Cela a accidentellement étiqueté les Noirs comme un «singe» et un «animal», ainsi que d'autres étiquettes offensantes comme appeler les portes de Dachau une «salle de sport de la jungle».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd