Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1368

Loading...
Le biais de genre caché dans la recherche d'images Google
fastcompany.com · 2015

Juste au moment où vous pensiez que les biais étaient une construction complètement humaine, de plus en plus de preuves suggèrent que les algorithmes et les interfaces pourraient également être biaisés.

PUBLICITÉ

Le dernier exemple en date provient d'une étude menée par des chercheurs de l'Université de Washington et de l'Université du Maryland et révèle comment un préjugé sexiste se fraye un chemin à travers les recherches sur le Web lorsque les gens recherchent des images pour représenter des carrières et des emplois.

Tout d'abord, ils ont effectué une analyse comparative pour voir si la prévalence des hommes et des femmes dans les résultats de recherche d'images pour les professions correspondait réellement à leur représentation dans les professions réelles. Pour ce faire, les chercheurs ont comparé le nombre de femmes qui figuraient dans le top 100 des résultats de recherche d'images Google en juillet 2013 pour 45 professions différentes, allant du barman au chimiste en passant par le soudeur, avec les statistiques du Bureau of Labor des États-Unis de 2012 sur le nombre de femmes qui travaillaient réellement. dans ces domaines. Ensuite, ils ont fait une analyse qualitative pour voir comment les hommes et les femmes sont représentés dans les résultats d'image.

Le but était de répondre à quelques questions incontournables :

Existe-t-il une surreprésentation ou une sous-représentation systémique des femmes dans les résultats préférentiels ?

Les résultats de recherche d'images biaisés conduisent-ils les gens à perpétuer un biais dans les résultats de recherche d'images lorsqu'ils choisissent des images pour représenter une profession (c'est-à-dire en exagérant les stéréotypes) ?

Les différences de représentation dans les résultats de recherche d'images affectent-elles la perception qu'ont les téléspectateurs de la prévalence des hommes et des femmes dans cette profession ?

Pouvons-nous changer ces opinions en manipulant les résultats ?

Les réponses étaient tout aussi convaincantes. Par exemple, selon leur étude, plus de la moitié des auteurs américains sont des femmes (56 %), mais la recherche d'images ne montre qu'environ 25 % d'auteurs femmes.

D'un autre côté, le télémarketing, une industrie où les hommes et les femmes sont également représentés, mais les résultats de l'image de Google vous feraient croire que 64 % des télévendeurs sont des femmes.

Tous les résultats n'étaient pas si faussés. La recherche a révélé que, dans près de la moitié des professions, la représentation réelle des sexes et les chiffres de recherche d'images étaient à moins de 5 points de pourcentage l'un de l'autre.

L'apparence des hommes et des femmes sur ces images était une autre histoire. Lorsque les chercheurs ont demandé aux participants d'évaluer le professionnalisme, les images montrant une personne correspondant au sexe majoritaire pour le poste étaient considérées comme plus compétentes, professionnelles et dignes de confiance. Ceux qui ne correspondaient pas étaient jugés provocateurs ou inappropriés.

« Un certain nombre des meilleurs succès représentant des femmes en tant qu'ouvriers du bâtiment sont des mannequins en petits costumes étriqués avec un casque posant de manière suggestive sur un marteau-piqueur. Vous obtenez des choses que personne ne considérerait comme professionnelles », déclare Cynthia Matuszek, co-auteur de l'étude.

Rien de tout cela n'aurait d'importance si les gens n'étaient pas poussés à faire des suppositions sur les hommes et les femmes dans des rôles particuliers dans le monde réel. Cependant, lorsque les chercheurs ont manipulé les résultats de la recherche, il n'est pas surprenant que les opinions des participants aient changé pour se conformer aux stéréotypes. Bien qu'ils aient souligné qu'il ne s'agissait que d'une observation à court terme, d'autres recherches confirment que l'exposition progressive à ces images au fil du temps contribuera à un biais inconscient.

Il a également déjà été révélé que les entrées de Wikipédia - un prétendu bastion de la diversité et de la neutralité éditoriale - penchent fortement en faveur des hommes, tant dans les articles réels que dans les liens. Les articles sur les femmes avaient tendance à être liés à ceux sur les hommes.

Cela est dû en partie à la communauté de Wikipédia, dont la prépondérance est composée d'hommes instruits, anglophones et originaires principalement de pays chrétiens.

CE QUE GOOGLE FAIT AU SUJET DES BIAIS INCONSCIENT

En plus des recherches d'images sexistes dans certains cas, Google a également été pris à partie pour le manque de diversité dans ses rangs et même en utilisant de manière disproportionnée des hommes blancs dans ses doodles.

Bien que Google ne soit peut-être pas au courant des résultats de cette dernière étude et de la recommandation des chercheurs, le géant de la recherche a reconnu qu'il est difficile pour quiconque - même son propre cadre d'employés émotionnellement intelligents - de traiter les 11 millions de bits d'informations que nous sommes. bombardés à tout moment et se concentrent plutôt sur la découverte des préjugés qui pourraient en découler.

À ce titre, Google propose un atelier axé sur les préjugés inconscients susceptibles de saboter la dynamique du lieu de travail ou de bouleverser l'égalité du processus d'embauche.

Les chercheurs de cette étude espèrent que les informations influenceront les concepteurs de moteurs de recherche pour créer des algorithmes qui représentent plus fidèlement la réalité. Sean Munson, professeur adjoint UW de conception et d'ingénierie centrées sur l'humain et co-auteur de l'étude, déclare: «[Les concepteurs de moteurs de recherche] peuvent arriver à une série de conclusions, mais je me sentirais mieux si les gens étaient au moins conscients des conséquences et font des choix conscients autour d'eux.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd