Incidents associés
Image via Twitter
Les parents ne connaissent que trop bien le défi particulier d'élever des enfants : leur apprendre à faire ce que nous disons, pas ce que nous faisons.
Un défi similaire a frappé l'intelligence artificielle.
Alors que de plus en plus d'applications et de logiciels utilisent l'IA pour automatiser les tâches, un modèle populaire basé sur des données, appelé « intégration de mots », a également repris des préjugés sociaux bien ancrés.
Le résultat est que des services comme la traduction linguistique recrachent ces préjugés de manière subtile mais inquiétante.
Plus tôt cette année, par exemple, des exemples de préjugés sexistes ont commencé à apparaître sur les réseaux sociaux avec Google Translate.
Essayez de traduire des termes en anglais depuis le turc, qui a des pronoms non sexistes, et une phrase comme o bir muhendis devient ingénieur, tandis que o bir hemsire se traduit par elle est infirmière.
Le propre service de traduction de Microsoft sur Bing a un problème similaire, grâce à l'utilisation du genre dans la grammaire - pensez le et la en français, ou der et die en allemand.
Quand Bing traduit « la table est molle » en allemand, il propose le féminin die Tabelle, qui fait référence à une table de chiffres.
"Ces associations de genre sont projetées sur des objets", explique Kate McCurdy, linguiste informatique senior de la startup d'apprentissage des langues Babbel à Berlin, en Allemagne, qui a découvert le biais de Bing.
« Les objets qui se trouvent être grammaticalement masculins reçoivent des propriétés masculines. C'est apprendre à prendre les stéréotypes de genre et à les projeter dans le monde entier des noms.
En raison de l'intégration de mots, une méthode populaire d'apprentissage automatique, les algorithmes de traduction fonctionnent sur ces biais, tout comme d'autres services comme la recherche Google, ainsi que les recommandations Netflix et Spotify.
"C'est une approche qui a pris son envol et qui est extrêmement répandue dans l'industrie, et c'est pourquoi il est si important d'interroger l'hypothèse sous-jacente", déclare McCurdy.
L'incorporation de mots fonctionne en liant des mots à un vecteur de nombres, que les algorithmes peuvent utiliser pour calculer la probabilité. En regardant quels mots ont tendance à être autour d'autres mots, comme "ingénieur", le modèle peut être utilisé pour déterminer quel autre mot convient le mieux, comme "il".
Le prix de l'apprentissage à partir de tonnes de textes et de dialogues existants est que ces modèles captent le déséquilibre réel entre les sexes en matière d'emplois ou d'opportunités.
Une étude de 2016 qui a formé des modèles d'intégration de mots sur des articles sur Google a montré des stéréotypes de genre "dans une mesure inquiétante", selon ses chercheurs.
McCurdy dit qu'il n'y a rien de nécessairement faux avec le modèle d'intégration de mots lui-même, mais il a besoin de conseils et d'une surveillance humains.
"La valeur par défaut est maintenant de créer ces applications et de les diffuser dans la nature et de combattre les incendies lorsqu'elles sortent", ajoute-t-elle. "Mais si nous étions plus délibérés à ce sujet et prenions les choses plus au sérieux, nous ferions plus de travail pour intégrer une perspective plus critique."
Les entreprises qui utilisent le modèle d'intégration de mots pour créer des services destinés aux consommateurs ont également besoin de programmeurs plus diversifiés qui sont plus susceptibles de remarquer le risque de biais avant qu'ils n'apparaissent.
"Si nous voulons vraiment que l'intelligence artificielle prenne des décisions qui n'aboutissent pas à des préjugés que nous ne voulons pas renforcer, nous devons avoir des personnes plus diversifiées et critiques qui examinent cela plus tôt dans le processus."