Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1370

Incidents associés

Incident 1624 Rapports
Images of Black People Labeled as Gorillas

Google s'excuse pour le marquage automatique raciste dans l'application photo
theguardian.com · 2015

Google s'est excusé après que sa nouvelle application photo ait qualifié deux Noirs de "gorilles".

Le service photo, lancé en mai, marque automatiquement les photos téléchargées à l'aide de son propre logiciel d'intelligence artificielle.

"Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille », a tweeté Jacky Alciné dimanche après qu'une photo de lui et d'un ami ait été étiquetée à tort comme des « gorilles » par l'application.

Google Photos, vous êtes tous foutus. Mon ami n'est pas un gorille. pic.twitter.com/SMkMCsNVX4

— diri noir avec banan (@jackyalcine) 29 juin 2015

Peu de temps après, Alciné a été contacté par Yonatan Zunger, l'architecte en chef du social chez Google.

"Un grand merci de nous avoir aidés à résoudre ce problème : cela fait une réelle différence", a tweeté Zunger à Alciné.

Il a poursuivi en disant que les problèmes de reconnaissance d'image peuvent être causés par des visages obscurcis et "un traitement de contraste différent nécessaire pour différents tons de peau et éclairage".

"Nous avions l'habitude d'avoir un problème avec les gens (de toutes les races) étant étiquetés comme chiens, pour des raisons similaires", a-t-il déclaré. "Nous travaillons également sur des solutions à plus long terme concernant à la fois la linguistique (mots auxquels il faut faire attention dans les photos de personnes) et la reconnaissance d'image elle-même (par exemple, une meilleure reconnaissance des visages à la peau foncée). Beaucoup de travail est en cours et il reste encore beaucoup à faire, mais nous y sommes très attachés.

Google s'excuse pour les résultats de recherche racistes de Google Maps White House

Les balises racistes ont également été un problème dans Google Maps. Plus tôt cette année, les recherches de « nigger house » dans le monde et les recherches de « nigger king » à Washington DC ont donné des résultats pour la Maison Blanche, la résidence du président américain Barack Obama. À cette époque et plus tôt cette semaine, Google s'est excusé et a déclaré qu'il s'efforçait de résoudre le problème.

"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré mercredi une porte-parole de Google à la BBC. « Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître. Il y a clairement encore beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir.

Google n'est pas la seule plate-forme à essayer de résoudre les bugs de son étiquetage automatique des images.

En mai, le système de marquage automatique de Flickr a fait l'objet d'un examen minutieux après avoir étiqueté des images de personnes noires avec des tags tels que "singe" et "animal". Le système a également marqué les photos des camps de concentration avec «sport» ou «jungle gym».

"Nous sommes conscients des problèmes de balises automatiques inexactes sur Flickr et travaillons sur un correctif. Bien que nous soyons très fiers de cette technologie avancée de reconnaissance d'images, nous sommes les premiers à admettre qu'il y aura des erreurs et nous travaillons constamment pour améliorer l'expérience », a déclaré un porte-parole de Flickr à l'époque.

"Si vous supprimez une balise incorrecte, notre algorithme apprend de cette erreur et fonctionnera mieux à l'avenir. Le processus de marquage est entièrement automatisé - aucun humain ne verra jamais vos photos pour les marquer. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d414e0f