Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1369

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google Photos a identifié deux Noirs comme des "gorilles"
mashable.com · 2015

Google Photos utilise un logiciel sophistiqué de reconnaissance faciale pour identifier non seulement les individus, mais également des catégories spécifiques d'objets et de types de photos, comme la nourriture, les chats et les horizons.

Cependant, les programmes de reconnaissance d'images sont loin d'être parfaits ; ils se trompent parfois de manière comique, et parfois de manière offensive, comme l'a récemment découvert un utilisateur de Twitter.

VOIR AUSSI : Facebook développe une technologie capable de vous reconnaître sur les photos, même si votre visage ne s'affiche pas

En parcourant son application Google Photos, Jacky Alciné, un habitant de Brooklyn, a remarqué que des photos de lui et d'un ami, tous deux noirs, étaient taguées sous l'étiquette "Gorilles". Il a partagé une capture d'écran du label raciste sur Twitter, qui a été repéré par Yahoo Tech.

Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. pic.twitter.com/SMkMCsNVX4

— diri noir avec banan (@jackyalcine) 29 juin 2015

Yonatan Zunger, l'architecte social en chef de Google, a réagi rapidement.

@jackyalcine Putain de merde. Google+ CA ici. Non, ce n'est pas ainsi que vous déterminez le marché cible de quelqu'un. C'est 100% Pas OK.

— Yonatan Zunger (@yonatanzunger) 29 juin 2015

Dans un tweetstorm ultérieur, Zunger a déclaré que Google réunissait une équipe pour résoudre le problème, et l'étiquette a été supprimée de son application dans les 15 heures, a confirmé Alciné à Mashable. Zunger a déclaré que Google envisageait également des correctifs à plus long terme. Un porte-parole de Google a également envoyé une déclaration officielle :

«Nous sommes consternés et sincèrement désolés que cela se soit produit. Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir.

Ce n'est malheureusement pas la première fois qu'un logiciel diffame par inadvertance des personnes à la peau foncée. En mai, la fonction de marquage automatique de Flickr a marqué une personne noire comme un "singe", bien qu'elle ait également mis la même étiquette sur une femme blanche. Et il y a des années, certaines webcams sur les ordinateurs portables fabriqués par HP ne suivaient pas les visages des Noirs, même si elles le faisaient pour les utilisateurs blancs.

Au moins dans le cas de Google Photos, l'incident semble être isolé, car il ne semble pas que d'autres utilisateurs se soient plaints de balises offensantes similaires. Mais c'est un rappel que, bien que les ordinateurs commencent à faire un très bon travail de simulation de la vision humaine, ils sont loin de simuler la sensibilité humaine.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd