Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 101

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Étiquettes d'application Google Photo Couple noir 'Gorilles'
news.sky.com · 2015

Google s'est dit "vraiment désolé" après que son logiciel de reconnaissance d'images ait qualifié les photographies d'un couple noir de "gorilles".

L'application Google Photos, lancée en mai, utilise un outil de marquage automatique pour aider à organiser les images téléchargées et faciliter la recherche.

Mais le logiciel d'intelligence artificielle décrit à tort le programmeur informatique afro-américain Jacky Alcine et son ami.

Lundi, M. Alcine, de Brooklyn, New York, a repéré la bévue flagrante.

Image: M. Alcine a publié une série de tweets soulignant le problème

Dans une série de tweets adressés à Google, il a déclaré : "Google Photos, merde. Mon ami n'est pas un gorille."

Publicité

Il a ajouté: "La seule chose sous cette étiquette est que mon ami et moi sommes étiquetés comme gorille."

M. Alcine a également fait remarquer: "Quel type d'échantillon de données d'image avez-vous collecté qui donnerait ce fils?"

Il a reçu une réponse de l'architecte social en chef de Google, Yonatan Zunger, plus tard dans la journée.

"Ce n'est pas correct à 100%", a déclaré M. Zunger, promettant une solution plus tard dans la soirée.

Google a déclaré dans un communiqué : "Nous sommes consternés et sincèrement désolés que cela se soit produit.

"Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître."

"Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous cherchons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir."

Une personne sur Twitter l'a surnommé "le premier exemple de racisme de l'IA".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd