Incidents associés

Copyright de l'image Getty Images Légende L'algorithme a répété les préjugés envers les hommes, reflétés dans l'industrie technologique
Un algorithme testé comme outil de recrutement par le géant en ligne Amazon était sexiste et a dû être abandonné, selon un rapport de Reuters.
Le système d'intelligence artificielle a été formé sur les données soumises par les candidats sur une période de 10 ans, dont une grande partie provenait d'hommes, a-t-il affirmé.
Les membres de l'équipe qui y travaillaient ont dit à Reuters que le système s'était effectivement appris que les candidats masculins étaient préférables.
Amazon n'a pas répondu aux réclamations.
Reuters s'est entretenu avec cinq membres de l'équipe qui ont développé l'outil d'apprentissage automatique en 2014, dont aucun ne voulait être nommé publiquement.
Ils ont déclaré à Reuters que le système était destiné à examiner les candidatures et à attribuer aux candidats une note allant de une à cinq étoiles.
"Ils voulaient littéralement que ce soit un moteur où je vais vous donner 100 CV, il crachera les cinq meilleurs, et nous les embaucherons", a déclaré l'un des ingénieurs qui s'est entretenu avec Reuters.
"Femmes" pénalisées
En 2015, il était clair que le système n'évaluait pas les candidats de manière non sexiste, car il était basé sur des données accumulées à partir de CV soumis à l'entreprise principalement par des hommes, a affirmé Reuters.
Le système a commencé à pénaliser les CV contenant le mot "femmes". Le programme a été modifié pour le rendre neutre par rapport au terme, mais il est devenu clair que le système ne pouvait pas être invoqué, a déclaré Reuters.
Le projet a été abandonné, bien que Reuters ait déclaré qu'il avait été utilisé pendant un certain temps par des recruteurs qui ont examiné les recommandations générées par l'outil mais ne se sont jamais fiés uniquement à celui-ci.
Selon Amazon, sa main-d'œuvre mondiale actuelle est répartie à 60/40 en faveur des hommes.
Environ 55 % des responsables des ressources humaines aux États-Unis ont déclaré que l'IA jouerait un rôle dans le recrutement au cours des cinq prochaines années, selon une enquête de la société de logiciels CareerBuilder.
Ce n'est pas la première fois que des doutes sont émis sur la fiabilité des algorithmes formés sur des données potentiellement biaisées.
Copyright de l'image MIT Image caption Un système d'IA du MIT, surnommé Norman, avait une vision sombre du monde en raison des données sur lesquelles il a été formé.
Une expérience au Massachusetts Institute of Technology, qui a formé une IA sur des images et des vidéos de meurtre et de mort, a découvert qu'elle interprétait les taches d'encre neutres de manière négative.
Et en mai de l'année dernière, un rapport affirmait qu'un programme informatique généré par l'IA utilisé par un tribunal américain était biaisé contre les Noirs, les signalant comme deux fois plus susceptibles de récidiver que les Blancs.
Les algorithmes de police prédictive ont été repérés comme étant biaisés de la même manière, car les données sur la criminalité sur lesquelles ils ont été formés ont montré plus d'arrestations ou d'interpellations de la police pour les Noirs.