Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 873

Incidents associés

Incident 499 Rapports
AI Beauty Judge Did Not Like Dark Skin

Loading...
L'intelligence artificielle a un problème de racisme
innotechtoday.com · 2017

On a longtemps pensé que les robots dotés d'intelligence artificielle seraient le pendant froid et purement objectif de la subjectivité émotionnelle des humains. Malheureusement, il semblerait que beaucoup de nos imperfections se soient retrouvées dans les machines. Il s'avère que ces A.I. et les outils d'apprentissage automatique peuvent avoir des angles morts en ce qui concerne les femmes et les minorités. Ceci est particulièrement préoccupant, étant donné que de nombreuses entreprises, organisations gouvernementales et même des hôpitaux utilisent l'apprentissage automatique et d'autres technologies d'IA. des outils pour aider à tout, de la prévention et du traitement des blessures et des maladies à la prévision de la solvabilité des demandeurs de prêt.

Ces préjugés raciaux et sexistes se sont manifestés de diverses manières. L'année dernière, Beauty.AI a décidé d'être le juge totalement objectif d'un concours international de beauté. En utilisant des facteurs tels que la symétrie faciale, Beauty.AI a évalué environ 6 000 photos de plus de 100 pays pour déterminer les plus belles personnes. Sur les 44 gagnants, presque tous étaient blancs, une poignée étaient asiatiques et un seul avait la peau foncée. Ceci malgré le fait que de nombreuses personnes de couleur ont soumis des photos, y compris de grands groupes d'Inde et d'Afrique. Pire encore, en 2015, lorsque le logiciel photo de Google a qualifié deux utilisateurs noirs de "gorilles", faute d'exemples de personnes de couleur dans sa base de données.

Le nœud du problème découle de la dépendance de l'IA aux données. Même si les données peuvent être exactes, cela pourrait conduire à des stéréotypes. Par exemple, une machine peut définir à tort une infirmière comme une femme, car les données montrent que moins d'hommes sont infirmiers. Dans un autre exemple, les chercheurs ont appliqué un ensemble de données avec des chiens noirs et des chats blancs et bruns. Compte tenu des données, l'algorithme a incorrectement étiqueté un chien blanc comme un chat. Dans d'autres cas, l'algorithme peut être formé par les personnes qui l'utilisent, ce qui fait que la machine capte les préjugés des utilisateurs humains.

En 2016, des chercheurs ont tenté d'éliminer les préjugés sexistes d'un algorithme d'apprentissage automatique. Dans l'article « L'homme est-il au programmeur informatique ce que la femme est à la femme au foyer ? » les chercheurs ont tenté de différencier les corrélations légitimes des corrélations biaisées. Une corrélation légitime peut ressembler à "l'homme est au roi ce que la femme est à la reine", tandis qu'une corrélation biaisée serait "l'homme est au médecin ce que la femme est à l'infirmière". En « utilisant une évaluation par crowd-worker ainsi que des critères de référence standard, [les chercheurs] démontrent de manière empirique que [leurs] algorithmes réduisent considérablement les préjugés sexistes dans les intégrations tout en préservant ses [sic] propriétés utiles telles que la capacité de regrouper des concepts liés et de résoudre tâches d'analogie », a conclu l'étude. Aujourd'hui, les mêmes chercheurs appliquent cette stratégie pour éliminer les préjugés raciaux.

Adam Kalai, un chercheur de Microsoft qui a co-écrit l'article, a déclaré que "nous devons enseigner à nos algorithmes quelles sont les bonnes associations et lesquelles sont mauvaises de la même manière que nous enseignons à nos enfants".

Les chercheurs ont également suggéré que l'utilisation d'algorithmes différents pour classer deux groupes représentés dans un ensemble de données, plutôt que d'utiliser la même mesure sur tout le monde, pourrait aider à réduire les biais dans l'intelligence artificielle.

Quoi qu'il en soit, beaucoup affirment qu'il faudra des années avant que ce problème de biais ne soit résolu, limitant considérablement l'intelligence artificielle jusque-là. Cependant, le problème a attiré l'attention de nombreux acteurs majeurs de l'IA. et l'apprentissage automatique qui travaillent maintenant à améliorer la technologie pour réduire les préjugés et aider à comprendre le processus de prise de décision de l'IA. Google utilise son initiative GlassBox - où les chercheurs étudient l'application de restrictions manuelles aux systèmes d'apprentissage automatique - afin de rendre leurs résultats plus compréhensibles. Cependant, il est possible que tant que les préjugés conscients et inconscients du créateur ne soient pas réduits, la création continuera à avoir ces problèmes.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd