Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 829

Incidents associés

Incident 479 Rapports
LinkedIn Search Prefers Male Names

Loading...
Le moteur de recherche de LinkedIn peut refléter un préjugé sexiste
stuff.co.nz · 2016

LinkedIn affirme que ses résultats suggérés sont générés automatiquement par une analyse des tendances des anciens chercheurs.

Recherchez un contact féminin sur LinkedIn et vous obtiendrez peut-être un résultat curieux. Le site Web de réseautage professionnel vous demande si vous vouliez rechercher le nom d'un homme similaire.

Une recherche de "Stephanie Williams", par exemple, fait apparaître une invite demandant si le chercheur voulait taper "Stephen Williams" à la place.

Ce n'est pas qu'il n'y a pas de personnes portant ce nom - environ 2 500 profils incluaient Stephanie Williams.

Mais des recherches similaires de prénoms féminins populaires, associés à des noms de famille fictifs, font apparaître la suggestion de LinkedIn de remplacer "Andrea Jones" par "Andrew Jones", Danielle par Daniel, Michaela par Michael et Alexa par Alex.

Le schéma se répète pour au moins une douzaine des prénoms féminins les plus courants.

Les recherches sur les 100 noms masculins les plus courants, en revanche, n'affichent aucune invite demandant si les utilisateurs voulaient dire des noms à prédominance féminine.

LinkedIn affirme que ses résultats suggérés sont générés automatiquement par une analyse des tendances des anciens chercheurs. "Tout dépend de la façon dont les gens utilisent la plateforme", a déclaré la porte-parole Suzi Owens.

La société, que Microsoft achète dans le cadre d'un contrat de 26,2 milliards de dollars, ne demande pas aux utilisateurs leur sexe lors de l'inscription et n'essaie pas de marquer les utilisateurs en fonction du sexe supposé ou des résultats de groupe de cette façon, a déclaré Owens. LinkedIn examine les moyens d'améliorer sa technologie prédictive, a-t-elle déclaré.

Owens n'a pas précisé si les membres de LinkedIn, qui totalisent environ 450 millions, étaient plus masculins que féminins.

Les invites de noms féminins à masculins de LinkedIn surviennent alors que certains chercheurs et technologues avertissent que les algorithmes logiciels, utilisés pour informer tout ce que les entreprises apparaissent dans les résultats de recherche aux stratégies de maintien de l'ordre, ne sont pas à l'abri des préjugés humains.

"Les histoires de discrimination peuvent perdurer sur les plateformes numériques", a écrit Kate Crawford, chercheuse chez Microsoft, plus tôt cette année. "Et s'ils ne sont pas remis en question, ils deviennent une partie de la logique des systèmes algorithmiques quotidiens."

Il y a beaucoup de preuves de cela récemment.

Une application photo de Google a fait la une des journaux l'année dernière en identifiant par erreur les Noirs comme des gorilles.

Plus récemment, Tay, un chatbot Microsoft conçu pour se livrer à des plaisanteries insensées sur Twitter, a été mis hors ligne après que d'autres internautes aient persuadé le logiciel de répéter des insultes racistes et sexistes.

L'impact des algorithmes d'apprentissage automatique ne se limite pas au monde numérique.

Une analyse de Bloomberg a révélé que le service de livraison le jour même d'Amazon, s'appuyant sur des données spécifiant la concentration de membres d'Amazon Prime, avait exclu les quartiers à prédominance non blanche dans six villes.

Pendant ce temps, ProPublica a découvert que les logiciels utilisés pour prédire les tendances des récidivistes étaient susceptibles de signaler à tort les accusés noirs comme de futurs criminels.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd