Incidents associés

Si vous avez recherché «trois adolescents blancs» sur Google Images plus tôt ce mois-ci, le résultat a craché des gens brillants et heureux en masse – un R.E.M. chanson au format JPG. Les images, principalement des photos d'archives, montraient de jeunes hommes et femmes de race blanche en train de rire, tenant des équipements sportifs ou pris de manière fantaisiste en plein selfie.
Si vous recherchiez "trois adolescents noirs", l'algorithme proposait un éventail de photos d'identité.
Recherchez "trois adolescents noirs" sur Google et voici ce que vous voyez
Kabir Alli a enregistré les résultats très différents qu'il a vus lorsqu'il a recherché "trois adolescents noirs" et "trois adolescents blancs" sur Google Images (Twitter/Kabir Alli)
Kabir Alli, un lycéen bientôt diplômé de la Clover Hill High School, à Midlothian, en Virginie, a enregistré la disparité – et, comme le ferait tout jeune entreprenant de 18 ans, a posté la vidéo sur Twitter. Le résultat a été une réponse virale rapide et massive, et sa vidéo a été partagée plus de 65 000 fois. (Des observations similaires avaient été faites auparavant, par des vidéastes de YouTube et d'autres, mais n'étaient pas aussi profondément ancrées dans la conscience d'Internet.)
Avant qu'il ne fasse la vidéo, des amis ont dit à Alli ce que la recherche Google ferait apparaître. Mais l'adolescent dit que le voir se produire en personne était toujours une surprise. "Je ne pensais pas que ce serait réellement vrai", a déclaré Alli dans une interview avec USA Today. "Quand j'ai vu les résultats, j'étais tout simplement choqué."
Google a répondu que son algorithme de recherche reflète la disponibilité et la fréquence du contenu en ligne. "Cela signifie que des représentations parfois désagréables de sujets sensibles en ligne peuvent affecter les résultats de recherche d'images qui apparaissent pour une requête donnée", a déclaré la société dans un communiqué au Huffington Post UK. "Ces résultats ne reflètent pas les opinions ou les convictions de Google. En tant qu'entreprise, nous accordons une grande importance à la diversité des perspectives, des idées et des cultures."
Les algorithmes comme ceux qui alimentent le moteur de recherche de Google ont tendance à être des secrets ésotériques ou commerciaux ou les deux, donnant au logiciel un air de mystère. Considérant que les algorithmes sont, après tout, des lignes de code, il est compréhensible que nous puissions vouloir les percevoir comme des décideurs infaillibles et impartiaux. C'est un point de vue tentant - mais c'est aussi, selon les experts, incorrect.
Ce que vous ne savez pas sur les algorithmes d'Internet vous nuit. (Et vous ne savez probablement pas grand-chose)
Comme l'a dit David Oppenheimer, professeur de droit à l'Université de Californie à Berkeley, à propos des algorithmes dans le New York Times en 2015 : « Même s'ils ne sont pas conçus dans l'intention de discriminer ces groupes, s'ils reproduisent les préférences sociales même de manière totalement rationnelle , ils reproduisent également ces formes de discrimination.
Les recherches d'images de Google pour les "belles dreadlocks" donnent principalement des blancs avec des dreadlocks, comme l'a souligné Buzzfeed UK en avril, certains critiques citant ce penchant eurocentrique comme un exemple de racisme. Alli, pour sa part, a déclaré à USA Today qu'il ne croyait pas que Google soit raciste, affirmant que "les hommes noirs qui font de mauvais choix jouent également un rôle majeur". Mais d'autres ne sont pas d'accord pour dire que Google devrait être si facilement absous. Safiya Umoja Noble, professeur d'études afro-américaines à l'UCLA, a déclaré à USA Today que Google avait la responsabilité d'éliminer les préjugés raciaux de son algorithme.
"Il publie systématiquement une déclaration selon laquelle il n'est pas responsable de la sortie de son algorithme", a déclaré Noble. « Et pourtant, nous devons nous demander : si Google n'est pas responsable de son algorithme, qui l'est ?
Même si les programmeurs humains ne reflètent pas une discrimination généralisée, intentionnellement ou non, ils peuvent introduire un biais par omission. Google a également été critiqué en juillet 2015 lorsque son application photo a qualifié de manière autonome une paire d'amis noirs d'animaux. Comme l'a noté le Washington Post, l'ingénieur en charge du programme pensait que le programme sous-jacent était correct, mais les données utilisées lors de la formation de l'algorithme étaient "défectueuses" - ce qui suggère que Google a peut-être négligé d'exécuter un nombre suffisant de portraits de minorités à travers le IA.
Un biais algorithmique apparent peut également être basé sur des opinions politiques ou sur le sexe. Facebook a été accusé d'enterrer les nouvelles conservatrices dans sa section des sujets tendances sur les pages d'accueil des utilisateurs sur le réseau social, bien que de nombreuses allégations se concentrent sur les conservateurs humains ; Facebook a ensuite rencontré des dirigeants conservateurs et a fini par s'appuyer sur un algorithme qui surveille les sites Web des médias. Et un texte de présentation pour un emploi avec un salaire de « 200 000 $ + », qui figurait dans le programme publicitaire de Google, était presque six fois plus susceptible d'être montré à un homme qu'à une femme, selon une étude de l'Université Carnegie Mellon ; il n'était pas clair si les annonceurs voulaient cibler les hommes, ont conclu les scientifiques, ou si le logiciel de Google indiquait que les hommes étaient plus susceptibles de cliquer sur l'annonce.
Cela ne veut pas dire que tous les biais algorithmiques doivent être mauvais. Les roboticiens créent des robots artificiellement intelligents qui stéréotypent pour prendre des décisions rapides et cruciales. L'année dernière, le chercheur de Georgia Tech, Alan Wagner, a construit une machine expérimentale pour observer comment un robot pourrait faire la distinction entre les civils et le personnel d'urgence en cas de catastrophe.
Sur la base de caractéristiques telles que les uniformes, par exemple, le programme de Wagner a pu déterminer si quelqu'un était un policier. Mais il a également conclu que tous les pompiers doivent avoir une barbe – simplement parce que les pompiers simulés ont tous eu des poils sur le visage pendant l'expérience. Wagner préconise maintenant que les jeunes intelligences artificielles ont besoin de "diversité perceptuelle", comme il l'a décrit sur le site Web Inverse - par exemple, montrant une large bande d'humanité à un programme formé pour reconnaître les visages.
Les résultats de Google Image pour trois adolescents blancs ou noirs reflètent maintenant que l'algorithme a appris que le débat sur les préjugés est populaire, montrant des montages photo liés à des reportages comme celui que vous lisez actuellement.
Mais les disparités raciales dans le traitement des adolescents par Google sont toujours faciles à trouver : un résultat vidéo Google pour "trois adolescents blancs" fait apparaître des clips d'actualité YouTube sur le résultat d'image snafu. La même recherche, avec "Asiatique" remplacé par "Blanc", donne des dizaines de liens vers de la pornographie.