Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 93

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google s'excuse d'avoir identifié des photos de personnes noires comme des "gorilles"
huffingtonpost.com · 2015

Lorsque Jacky Alciné a vérifié son application Google Photos plus tôt cette semaine, il a remarqué qu'elle étiquetait des photos de lui et d'un ami, tous deux noirs, comme des "gorilles".

Le programmeur de Brooklyn a posté ses captures d'écran sur Twitter pour signaler le logiciel de reconnaissance de photos défectueux de l'application :

Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. pic.twitter.com/SMkMCsNVX4 – Jacky vit maintenant sur @jalcine@playvicious.social. (@jackyalcine) 29 juin 2015

Et ce ne sont que des photos que j'ai avec elle avec lesquelles je fais ça (résultats tronqués b / c personnels): pic.twitter.com/h7MTXd3wgo - Jacky vit sur @jalcine@playvicious.social maintenant. (@jackyalcine) 29 juin 2015

Yonatan Zunger, l'architecte en chef des réseaux sociaux de Google, a répondu sur Twitter en promettant de réparer la balise. Le lendemain, rapporte USA Today, Google a complètement supprimé la balise "gorille".

"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré la porte-parole de Google, Katie Watson, dans un communiqué à la BBC. "Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir. "

@jackyalcine et la reconnaissance d'image elle-même. (par exemple, une meilleure reconnaissance des visages à la peau foncée) — Yonatan Zunger 🔥 (@yonatanzunger) 29 juin 2015

Ce n'est pas la première fois cette année que Google doit s'excuser pour quelque chose d'offensant dans son logiciel. Google Maps a fait la une des journaux lorsque les utilisateurs ont découvert le mois dernier que la saisie d'une insulte raciale dans le champ de recherche dans certaines zones donnait l'adresse de la Maison Blanche. Le site a rapidement corrigé le dysfonctionnement.

Les chiffres de la diversité de Google sont restés largement statiques au fil des ans. Environ 70 % des employés sont des hommes. Soixante pour cent des employés de l'entreprise sont blancs et 31 % sont asiatiques. Ensemble, les Afro-Américains et les Latinos ne représentent que 5 % de la population active.

Comme Alciné l'a dit au Huffington Post via un message direct sur Twitter, "Une équipe d'assurance qualité diversifiée aurait pu détecter cela s'ils l'avaient testé sur eux-mêmes, ou un groupe de discussion diversifié pour les tests."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd