Incidents associés

Récemment, il y a eu une préoccupation croissante concernant les biais de la machine, où les modèles statistiques entraînés se développent pour refléter des asymétries sociétales controversées, telles que les préjugés sexistes ou raciaux. Il a récemment été suggéré qu'un nombre important d'outils d'IA étaient préjudiciables à certaines minorités, avec des rapports de prédicteurs de comportements criminels racistes, l'Iphone X ne parvenant pas à faire la différence entre deux personnes asiatiques et les photos de Google classant à tort les Noirs comme des gorilles. Bien qu'une étude systématique de ces biais puisse être difficile, nous pensons que les outils de traduction automatique peuvent être exploités à travers des langages non sexistes pour ouvrir une fenêtre sur le phénomène des préjugés sexistes dans l'IA. Dans cet article, nous commençons par une liste complète de postes du Bureau of Labor Statistics (BLS) des États-Unis et l'avons utilisée pour construire des phrases dans des constructions telles que "Il / Elle est un ingénieur" dans 12 langues neutres telles que le hongrois, Chinois, Yoruba et plusieurs autres. Nous traduisons ces phrases en anglais à l'aide de l'API Google Translate et collectons des statistiques sur la fréquence des pronoms féminins, masculins et non sexistes dans la sortie traduite. Nous montrons que GT présente une forte tendance aux défauts masculins, en particulier pour les domaines liés à une répartition déséquilibrée entre les sexes tels que les emplois STEM. Nous avons comparé ces statistiques aux données du BLS sur la fréquence de la participation des femmes à chaque poste, montrant que GT ne parvient pas à reproduire une distribution réelle des travailleuses. Nous apportons des preuves expérimentales que même si l'on ne s'attend pas en principe à une répartition pronominale par sexe de 50:50, GT donne des défauts masculins beaucoup plus fréquemment que ce à quoi on pourrait s'attendre à partir des seules données démographiques. Nous espérons que ce travail déclenchera un débat sur la nécessité d'augmenter les outils de traduction statistique actuels avec des techniques de débiaisation qui peuvent déjà être trouvées dans la littérature scientifique.