
Amazon abandonne l'IA sexiste
Ce n'est pas nouveau d'apprendre que l'IA peut être une sorte de fanatique.
Amazon a abandonné un algorithme destiné à devenir un outil de recrutement car trop sexiste.
Avez-vous entendu celui sur ma femme - eh bien, elle... est une personne vraiment gentille, en fait.
Nous savons que les gens souffrent de préjugés. Hélas, une pile croissante de preuves suggère que l'IA peut l'être aussi.
Il semble maintenant qu'Amazon l'ait découvert à la dure - après avoir investi dans un outil de recrutement basé sur l'IA.
IA éthique - la réponse est claire Être transparent avec l'IA éthique est essentiel pour s'engager avec le public de manière responsable.
L'idée était que le moteur d'intelligence artificielle analyse les candidatures et attribue aux recrues pleines d'espoir une note comprise entre un et cinq. Reuters a cité un ingénieur disant: "Ils voulaient littéralement que ce soit un moteur où je vais vous donner 100 CV, il crachera les cinq premiers, et nous les embaucherons."
Hélas, il a commencé à éliminer les CV contenant un certain mot de cinq lettres. Le mot "W" - les femmes, il l'a dit.
C'était en 2015, avouons-le, en ce qui concerne l'IA, 2015 est de l'histoire ancienne.
Lire aussi : Réguler les robots : garder un œil sur l'IA
Ce n'est pas nouveau d'apprendre que l'IA peut être une sorte de fanatique.
En 2016, il est apparu que les algorithmes américains d'évaluation des risques - utilisés par les tribunaux de tout le pays pour décider du sort et des libertés des personnes jugées - sont biaisés sur le plan racial, condamnant fréquemment les Caucasiens avec plus d'indulgence que les Afro-Américains malgré l'absence de différence dans le type de crime commis. Comment cela a-t-il pu se produire dans un système censé être neutre ?
La chercheuse en IA, la professeure Joanna Bryson, a déclaré à l'époque : "Si les données sous-jacentes reflètent des stéréotypes, ou si vous formez l'IA à partir de la culture humaine, vous trouverez des préjugés."
Voir aussi : Intelligence augmentée : pourquoi l'humain ne s'oublie pas
Cela nous amène à la question de la diversité. Scot E Page est un expert de la diversité et des systèmes complexes. Les domaines où il est le plus connu incluent la « sagesse collective ».
Il est célèbre pour avoir dit que "le progrès dépend autant de nos différences collectives que de nos scores de QI individuels".
Et: "Si nous pouvons comprendre comment tirer parti de la diversité pour obtenir de meilleures performances et une plus grande robustesse, nous pourrions anticiper et prévenir les effondrements."
L'IA, cependant, en raison de la façon dont elle apprend des données, peut refléter les préjugés de la société.
"Le fait que le système d'Amazon ait appris de lui-même que les candidats masculins étaient préférables, pénalisant les CV contenant le mot" féminin ", n'est guère surprenant si l'on considère que 89% de la main-d'œuvre d'ingénierie est masculine", a observé Charlotte Morrison, directrice générale de la marque mondiale et agence de design, Landor.
Elle a ajouté: «Les marques doivent veiller à ce que, lors de la création et de l'utilisation de la technologie, elles ne se retournent pas contre elles en mettant en évidence les imperfections et les préjugés de la société. La solution à long terme est bien sûr d'avoir des candidats plus diversifiés dans l'éducation et les carrières STEM - jusque-là, les marques doivent être conscientes des dangers de l'atteinte à la marque et à la réputation causées par une technologie biaisée, sexiste et même raciste.
Lire aussi : Intelligence augmentée : prédire les meilleurs moments clients