Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 92

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google s'excuse pour la bévue raciste de l'application Photos
bbc.com · 2015

M. Alcine a tweeté Google sur le fait que son application avait mal classé sa photo

Google se dit "consterné" que sa nouvelle application Photos ait qualifié à tort un couple noir de "gorilles".

Son produit marque automatiquement les images téléchargées à l'aide de son propre logiciel d'intelligence artificielle.

L'erreur a été portée à son attention par un développeur de logiciels basé à New York qui était l'une des personnes représentées sur les photos impliquées.

Google a ensuite été critiqué sur les réseaux sociaux en raison des connotations racistes du label.

"Ce n'est pas OK à 100%", a reconnu Yonatan Zunger, cadre de Google, après avoir été contacté par Jacky Alcine via Twitter.

"C'était en haut de ma liste de bugs que vous ne voulez "jamais" voir arriver."

M. Zunger a déclaré que Google avait déjà pris des mesures pour éviter que d'autres ne subissent une erreur similaire.

Copyright de l'image Twitter Image caption M. Alcine a déclaré que l'erreur avait affecté plusieurs photos de sa collection

Il a ajouté qu'il "travaillait également sur des solutions à plus long terme concernant à la fois la linguistique - les mots auxquels il faut faire attention dans les photos de personnes - et la reconnaissance d'image elle-même - par exemple une meilleure reconnaissance des visages à la peau foncée".

Ce n'est pas la première fois que Google Photos désigne à tort une espèce comme une autre.

Le site d'information iTech Post a noté que l'application marquait des photos de chiens en tant que chevaux en mai.

Les utilisateurs peuvent supprimer les classifications de photos mal identifiées dans l'application, ce qui devrait l'aider à améliorer sa précision au fil du temps - une technologie connue sous le nom d'apprentissage automatique.

Copyright de l'image Twitter Image caption Google a fait l'objet de critiques depuis que l'erreur a été rendue publique

Cependant, Google a reconnu la sensibilité de la dernière erreur.

"Nous sommes consternés et sincèrement désolés que cela se soit produit", a déclaré une porte-parole à la BBC.

"Nous prenons des mesures immédiates pour empêcher ce type de résultat d'apparaître.

"Il y a encore clairement beaucoup de travail à faire avec l'étiquetage automatique des images, et nous cherchons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir."

Mais M. Alcine a déclaré à la BBC qu'il avait toujours des inquiétudes.

"J'ai quelques questions, comme le type d'images et de personnes utilisées dans leur amorçage initial qui a conduit à des résultats comme ceux-ci", a-t-il déclaré.

"Google a mentionné une recherche plus intensive pour faire passer les candidats de couleur par la porte, mais seul le temps nous dira si cela se produira et aidera à corriger l'image que les entreprises de la Silicon Valley ont avec la diversité intersectionnelle - l'acte d'unifier plusieurs fronts de personnes défavorisées. afin que leurs voix soient entendues et non étouffées."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd