Incidents associés

La question de savoir si un ordinateur peut être biaisé ou non peut sembler frivole, mais cela pourrait faire toute la différence lorsqu'il s'agit d'être trouvé en ligne.
Or, une enquête d'un journal américain a suggéré que ce biais pourrait être présent sur le plus grand site de réseautage professionnel au monde.
Il a constaté qu'une recherche de noms féminins courants sur LinkedIn a renvoyé des suggestions de noms masculins apparentés.
Une enquête menée par un journal américain a suggéré que des préjugés sexistes pourraient être présents sur le plus grand site de réseautage professionnel au monde, en suggérant des noms masculins lors de la recherche de femmes professionnelles. LinkedIn a nié que ses algorithmes utilisent le genre
LINKEDIN 'SEARCH BIAS' Une enquête a affirmé que la fonction de recherche de LinkedIn comporte un biais sexiste. Lors de la recherche d'un nom féminin courant, tel que "Andrea Jones", il renvoyait également des suggestions d'équivalents masculins, tels que "Andrew Jones". Il a été constaté que le biais ne fonctionnait pas dans l'autre sens, suggérant des équivalents féminins dans les recherches de professionnels masculins. LinkedIn a déclaré que ses algorithmes ne sont pas basés sur le sexe mais sur les recherches précédentes de ses 450 millions d'utilisateurs.
Selon le rapport du Seattle Times, le même schéma fonctionne pour au moins une douzaine de prénoms féminins courants aux États-Unis.
De plus, le biais apparent semble être une rue à sens unique.
Lors de la recherche de noms masculins courants, il n'y a aucune suggestion de femmes portant un nom similaire.
Il prétend qu'une recherche du nom commun "Stephanie Williams" suggère "Stephen Williams".
D'autres exemples incluent une recherche pour "Andrea Jones" qui ramène de nombreux détails pour "Andrew Jones".
MailOnline a pu reproduire certains des résultats.
LinkedIn est la plus grande plateforme de réseautage professionnel au monde, revendiquant plus de 450 millions d'utilisateurs. Il devrait être acheté par le géant du logiciel Microsoft dans le cadre d'un accord d'une valeur estimée à 17,7 milliards de livres sterling (26,2 milliards de dollars).
En réponse aux affirmations, LinkedIn a déclaré que les recherches sont basées sur des requêtes de recherche courantes de ses 450 millions d'utilisateurs, basées sur des noms orthographiés de la même manière, n'ayant rien à voir avec le sexe d'un utilisateur.
L'enquête affirme qu'une recherche de noms féminins communs entraîne des suggestions pour les professionnels masculins, comme une recherche de "Andrea Jones" ramène de nombreuses suggestions pour "Andrew Jones" (photo)
LinkedIn est la plus grande plateforme de réseautage professionnel au monde, revendiquant plus de 450 millions d'utilisateurs. Il devrait être acheté par le géant du logiciel Microsoft dans le cadre d'un accord d'une valeur estimée à 17,7 milliards de livres sterling (26,2 milliards de dollars)
LES ORDINATEURS PEUVENT-ILS ÊTRE BIAIS ? Lorsqu'ils enseignent aux machines comment traiter le langage, les programmeurs peuvent utiliser des algorithmes d'incorporation de mots. Ces programmes permettent aux ordinateurs d'utiliser l'apprentissage automatique pour traiter le langage sur la base d'exemples appris. Un exemple est lorsqu'un ordinateur doit trouver des mots apparentés en utilisant la comparaison "elle est à lui". Cela peut être utilisé pour trouver des paires de mots précises comme elle:il, comme soeur:frère ou reine:roi. Mais l'utilisation de sources du monde réel, telles que des articles de presse et des sites Web, peut entraîner des préjugés sexistes. Par exemple, les professions associées à "il" peuvent être philosophe, pilote de chasse ou patron. Mais les professions associées à «elle» comprenaient la femme au foyer, la mondaine, la réceptionniste et la coiffeuse. Des chercheurs tentent de combattre ce biais en apprenant aux machines à ignorer certaines relations entre les mots.
Un porte-parole de la plate-forme de réseautage a déclaré à MailOnline: «L'algorithme de recherche est guidé par les fréquences relatives des mots apparaissant dans les requêtes passées et les profils des membres; cela n'a rien à voir avec le sexe.
"Pour corriger les suggestions d'orthographe involontaires qui sonnent de manière similaire, nous avons déployé un changement qui reconnaît explicitement les noms des personnes afin que l'algorithme n'essaie pas de les corriger en un autre nom - du même sexe ou d'un sexe différent.
"Comme avec tous les systèmes d'apprentissage automatique, il y a toujours des cas extrêmes et nous travaillons constamment dur pour nous améliorer et créer la meilleure expérience possible pour nos membres."
Alors que les algorithmes d'apprentissage automatique sont de plus en plus utilisés pour traiter des requêtes complexes, des cas de biais inhérents apparaissent.
Un exemple est les algorithmes utilisés pour prédire les taux de récidive chez les anciens criminels aux États-Unis, sur la base de facteurs sociaux et sociétaux.
Certains rapports ont affirmé que ces algorithmes prédictifs pourraient fausser les résultats en fonction de la race, les Afro-Américains étant confrontés à des résultats plus négatifs.
Alors que d'autres exemples incluent une technique appelée intégration de mots, qui enseigne aux machines comment traiter le langage en trouvant des relations entre les mots.
Mais lorsque l'ordinateur recherche des sources du monde réel, l'approche d'intégration peut détecter des stéréotypes de genre inhérents.