Incidents associés

Image : Shutterstock
Google a foiré et dit maintenant qu'il est désolé.
Mercredi, Motherboard a publié un article écrit par Andrew Thompson sur les préjugés contre les minorités ethniques et religieuses encodé dans l'une des interfaces de programme d'application (API) d'apprentissage automatique de Google, appelée API Cloud Natural Language.
Une partie de l'API analyse les textes et détermine ensuite s'ils ont un sentiment positif ou négatif, sur une échelle de -1 à 1. L'IA a été trouvée pour étiqueter les phrases sur les minorités religieuses et ethniques comme négatives, indiquant qu'elles sont intrinsèquement biaisées. Il a qualifié à la fois d'être juif et d'être homosexuel comme négatifs, par exemple.
Google s'est maintenant engagé à résoudre le problème. En réponse à l'histoire de Motherboard, un porte-parole de la société a déclaré qu'elle s'efforçait d'améliorer l'API et de supprimer ses biais.
"Nous consacrons beaucoup d'efforts à nous assurer que l'API NLP [Natural Language Processing] évite les biais, mais nous ne faisons pas toujours les choses correctement. C'est un exemple d'une de ces situations, et nous sommes désolés. Nous prenons cela au sérieux. et travaillent à l'amélioration de nos modèles", a déclaré un porte-parole de Google dans un e-mail. "Nous allons corriger ce cas précis, et, plus largement, construire des algorithmes plus inclusifs est crucial pour apporter les bénéfices du machine learning à tous."
Les systèmes artificiellement intelligents sont formés en traitant de grandes quantités de données, y compris souvent des livres, des critiques de films et des articles de presse. L'IA de Google a probablement appris à être biaisée contre certains groupes parce qu'elle était alimentée par des données biaisées. De tels problèmes sont au cœur de la recherche sur l'IA et l'apprentissage automatique, et ceux qui critiquent ces technologies disent qu'ils doivent être résolus afin de garantir que la technologie fonctionne pour tout le monde.
Ce n'est pas le premier exemple de biais d'IA à être découvert, et ce ne sera probablement pas le dernier. Les chercheurs ne sont pas encore d'accord sur la meilleure façon d'empêcher les systèmes d'intelligence artificielle de refléter les préjugés constatés dans la société. Mais nous devons continuer à exposer les cas dans lesquels les IA ont appris à incarner les mêmes préjugés que les humains.
Il n'est pas surprenant que Google veuille corriger ce biais particulier, mais il convient de noter que l'entreprise s'est excusée et a pointé vers un objectif de construction d'une intelligence artificielle plus inclusive. Il appartient maintenant à l'entreprise et à tous ceux qui travaillent sur la technologie de développer un moyen viable de le faire.
Vous avez un conseil ? Vous pouvez contacter ce journaliste en toute sécurité sur Signal au +1 201-316-6981, ou par e-mail à louise.matsakis@vice.com
Recevez chaque jour six de nos histoires préférées sur Motherboard en vous inscrivant à notre newsletter.