Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 90

Incidents associés

Incident 1623 Rapports
Images of Black People Labeled as Gorillas

Loading...
Google Photos a identifié les Noirs comme des "gorilles", mais les logiciels racistes ne sont pas nouveaux
splinternews.com · 2015

Google a récemment été critiqué pour un "pépin" objectivement raciste trouvé dans sa nouvelle application Photos pour iOS et Android qui identifie les Noirs comme des "gorilles".

En théorie, Photos est censé agir comme un assistant numérique intelligent. Ses algorithmes sous-jacents peuvent catégoriser l'intégralité de votre pellicule en fonction d'un certain nombre de facteurs différents tels que la date, le lieu et le sujet. Apparemment, cependant, au moins un utilisateur noir a signalé que l'application l'avait classé, lui et un ami noir, dans la catégorie des "gorilles", par opposition aux personnes.

Dimanche, l'utilisateur de Google Photos Jacky Alcine a tweeté une capture d'écran de l'application qui affichait un certain nombre de photos organisées en différents albums. Alors que l'algorithme de l'application était capable d'identifier correctement les images d'une "diplôme", de "gratte-ciel" et d'"avions", il a qualifié les photos d'Alcine et d'une amie de gorilles.

https://twitter.com/jackyalcine/status/615329515909156865/

https://twitter.com/jackyalcine/status/615331869266157568/

Yontan Zunger, un ingénieur logiciel senior pour Google, a rapidement tweeté à Alcine, l'assurant que l'erreur était un bogue qui serait corrigé immédiatement. Alcine, à son crédit, a expliqué qu'il comprenait comment les algorithmes peuvent mal identifier les choses d'une manière que les humains ne font pas, mais il s'est demandé pourquoi ce type de problème en particulier était toujours un tel problème pour un géant du logiciel comme Google.

"Nous sommes consternés et sincèrement désolés que cela se soit produit", lit-on dans un communiqué officiel de Google à ce sujet. "Il reste clairement beaucoup de travail à faire avec l'étiquetage automatique des images, et nous examinons comment nous pouvons empêcher que ce type d'erreurs ne se reproduise à l'avenir."

Aussi gentil que ce soit de la part de Google de nous assurer que quelque chose comme ça est un exemple anormal de codage qui a mal tourné, ce n'est pas la première fois que nous voyons un logiciel montrer un parti pris implicite contre les personnes de couleur.

L'un des exemples les plus connus de technologie snobant ses propriétaires est venu sous la forme d'appareils photo numériques supposant que leurs yeux étaient fermés tout en souriant. Les capteurs des appareils photo ont confondu la forme des yeux asiatiques et les ont interprétés comme clignotants, incitant l'appareil photo à marquer les photos prises comme défectueuses.

Malheureusement, il y a plus.

Il a été observé que le logiciel conçu pour prendre en charge un certain nombre de capteurs différents utilisés dans les appareils photo numériques et les webcams ne peut absolument pas percevoir les personnes à la peau plus foncée.

En 2010 déjà, une série d'ordinateurs HP était largement touchée par ces webcams dites « racistes ». Cinq ans plus tard, des gaffes logicielles similaires continuent de tourmenter des services comme Flickr. Le mois dernier, Flickr a déployé un algorithme similaire dans son réseau de partage de photos populaire qui promettait d'aider les utilisateurs à taguer plus efficacement leurs photos. La fonction a identifié à la fois un homme noir et une femme blanche comme des singes à deux reprises. Qu'il suffise de dire que ce problème n'est pas exactement en train de disparaître.

Les erreurs sont commises parce que les algorithmes, aussi intelligents soient-ils, sont terribles pour donner un sens réel aux images qu'ils analysent. Au lieu de "voir" un visage, les algorithmes identifient les formes, les couleurs et les motifs pour faire des suppositions éclairées sur ce que l'image pourrait réellement être. Cela fonctionne à merveille pour les objets inanimés ou les choses emblématiques comme les points de repère, mais il s'est avéré être un point de friction pour les personnes de couleur à maintes reprises.

Peut-être que si les titans de la Silicon Valley embauchaient plus d'ingénieurs de couleur, des choses comme ça n'arriveraient pas si souvent. Ou, vous savez, jamais.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd