Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2044

Incidents associés

Incident 3324 Rapports
Google Image Showed Racially Biased Results for “Professional” Hairstyles

Loading...
Les résultats "cheveux non professionnels" de Google montrent-ils qu'il est raciste ?
theguardian.com · 2016

Récemment, une étudiante au MBA nommée Rosalia a découvert quelque chose d'alarmant : Googler "coiffures non professionnelles pour le travail" a donné des résultats d'image principalement de femmes noires aux cheveux naturels, tout en recherchant le les « professionnelles » offraient des photos de femmes blanches coiffées. Souvent, les styles de cheveux eux-mêmes n'étaient pas très différents - seulement le type de cheveux et la peau du porteur.

Le tweet de Rosalia a depuis été retweeté des milliers de fois - plus de 6 200 au cours des 24 premières heures, dit-elle - alors que sa découverte a déclenché une discussion sur les préjugés raciaux implicites contre les noirs personnes sur le lieu de travail. Un algorithme lui-même peut-il être raciste ? Ou est-ce seulement le reflet du paysage social plus large ?

Il semble difficile de se souvenir d'un moment où vous ne pouviez pas simplement "Google Images" un mot ou une phrase et en voir une image instantanément. Selon le président exécutif de Google, Eric Schmidt, la fonctionnalité a été [introduite en 2000](https://www.project-syndicate.org/commentary/google-european-commission-and-disruptive-technological-change-by-eric -schmidt-2015-01#yMSC5IlY7sHATDCO.99). C'était en réponse à une demande soudaine et écrasante: Jennifer Lopez portait une robe verte Versace en chute libre aux Grammy Awards de cette année-là et tout à coup tout le monde voulait la voir. Personne ne l'a cherché sur Google juste pour lire à ce sujet, c'était sûr.

Maintenant, Google Images est une partie pratiquement irréfléchie de la façon dont nous utilisons le Web, nous offrant instantanément une vaste galerie d'images pertinentes en réponse à un seul mot, expression ou requête. Il fait également d'autres suggestions. Si vous recherchez une tarte, vous verrez des confiseries classiques entières et tranchées, ainsi que certains sous-ensembles disponibles. Tarte aux pommes, tourte à la viande ? Vouliez-vous dire le nombre mathématique, peut-être? Google Images pense à tout !

Nous avons toujours conçu les moteurs de recherche comme des créatures obscures mais neutres, n'obéissant qu'à notre volonté et à la précieuse logique de l'information. Les moteurs plus anciens de l'avènement d'Internet reflétaient cela : vous vous souvenez de "Ask Jeeves", le majordome distingué ? Dogpile, qui vous « apporterait » des choses ? Malgré ce fantasme, les choses que les moteurs et leurs algorithmes sont capables de savoir et de trouver sont influencées par le contenu que nous leur donnons pour travailler, ce qui signifie qu'ils peuvent refléter nos propres préjugés.

À la base, Google Images détermine principalement qui ou quoi est affiché dans une image en jugeant le texte et les légendes qui l'entourent. Il est cependant possible qu'une analyse d'image rudimentaire - celle qui peut distinguer un visage d'un paysage - soit également impliquée. Dans le cas du grand débat sur les cheveux, Google Images semble avoir pris de nombreuses photos de femmes noires portant des coiffures «non professionnelles» provenant de blogs, d'articles et de tableaux Pinterest. Beaucoup d'entre eux sont des personnes de couleur qui discutent et protestent explicitement contre les attitudes racistes envers les cheveux. Une image m'a conduit à un article criticisant l'interdiction des dreadlocks par l'Université de Hampton et des cornrows ; un autre était lié à un article célébrant les cheveux naturels et la pression "ridicule" pour les lisser pour le bureau ; voici un rejet de l'idée que les grosses boucles naturelles sont "distrayantes" dans une salle de presse.

En fin de compte, l'algorithme reflète les conversations sur les préjugés des «cheveux non professionnels», sans rendre de décision. En fait, juste un jour après que le tweet de Rosalia soit devenu viral, des mèmes sur l'écart, des captures d'écran du tweet lui-même et d'autres images connexes récentes ont dépassé les résultats de la recherche Google Images pour "coiffures non professionnelles pour le travail". Mais cela soulève toujours des questions sur le rôle des algorithmes dans la façon dont nous utilisons le Web et perce quelques trous dans le fantasme utopique de ce à quoi sert Internet.

Par exemple, recherchez le mot « homme » et vous obtenez des images presque entièrement d'hommes blancs, quoique d'âges différents. Une recherche du mot « femme » révèle également une écrasante majorité de jeunes femmes blanches. Considérant que la majorité de la population mondiale n'est pas blanche, nous voyons immédiatement à quel point les préjugés blancs centrés sur l'Occident - des croyances raciales et sexistes aux normes culturelles de beauté et de valeur - dominent le fonctionnement même du Web et les histoires qu'il raconte. sur l'humanité.

L'algorithme ne signifie pas être impérialiste, bien sûr. Il fait ce pour quoi il est conçu : refléter le contenu dont il dispose. Mais le rêve du Web en tant que «grand égalisateur» ne reste que cela, et le fantasme d'un serviteur numérique universel et sans jugement qui nous montre la vraie taille et l'étendue du monde n'est toujours pas réalisé.

Est-ce quelque chose que Google peut "résoudre", peut-être en marquant et en hiérarchisant les images différemment ? Et si oui, devrait-il le faire ? Ces questions touchent à l'identité même de la « recherche » en tant que concept numérique : son objectif est-il de refléter et de renforcer ce que ses utilisateurs ressentent, font et croient ? Ou est-ce pour nous montrer une image plus complète du monde et de toutes les choses qu'il contient telles qu'elles sont réellement ? Google Images a été conçu en réponse à ce que les gens voulaient le plus voir. Peut-être qu'il n'a pas encore décidé ce que nous avons le plus besoin de voir.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd