Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 868

Incidents associés

Incident 499 Rapports
AI Beauty Judge Did Not Like Dark Skin

Loading...
Pourquoi un concours de beauté jugé par l'IA a choisi presque tous les gagnants blancs
motherboard.vice.com · 2016

Image : Flickr/Veronica Jauriqui

Les concours de beauté ont toujours été politiques. Après tout, qu'est-ce qui parle plus fortement de la façon dont nous nous voyons que les traits physiques que nous récompensons comme beaux et que nous codons comme laids ? Ce n'est qu'en 1983 que le concours Miss America a couronné une femme noire comme la plus belle femme du pays.

Et si on remplaçait les juges humains par des machines ? Un robot serait idéalement dépourvu des préjugés sociaux souvent nocifs d'un humain. Aussi superficiel que soit tout cela, un ordinateur serait-il au moins capable de voir au-delà de la couleur de la peau et d'examiner, potentiellement, des marqueurs d'attractivité plus universels ? Ou l'enfer, même apprécier un peu de mélanine ? Pas vraiment, comme il s'avère.

Beauty.ai, une initiative des Youth Laboratories basés en Russie et à Hong Kong et soutenue par Microsoft et Nvidia, a organisé un concours de beauté avec 600 000 participants, qui ont envoyé des selfies du monde entier - Inde, Chine, toute l'Afrique et le NOUS. Ils ont laissé un ensemble de trois algorithmes les juger en fonction de la symétrie de leur visage, de leurs rides et de leur âge. Les algorithmes n'ont pas évalué la couleur de la peau.

Les résultats, publiés en août, ont été choquants : sur les 44 personnes que les algorithmes ont jugées les plus "attrayantes", tous les finalistes étaient blancs, à l'exception de six asiatiques. Un seul finaliste avait la peau visiblement foncée.

Comment diable est-ce arrivé?

Image: Beauté.ai

La première chose à savoir est que les trois algorithmes utilisaient un style d'apprentissage automatique appelé "apprentissage en profondeur". Dans l'apprentissage en profondeur, un algorithme est "formé" sur un ensemble d'images pré-étiquetées afin que, lorsqu'il est présenté avec une nouvelle image, il puisse prédire avec un certain degré de certitude ce qu'il regarde. Dans le cas de Beauty.ai, tous les algorithmes ont été entraînés sur des bases de données d'apprentissage automatique open source partagées entre les chercheurs.

L'apprentissage en profondeur est la forme d'intelligence artificielle la plus puissante que nous ayons et est utilisé par de grandes entreprises comme Alphabet et Facebook. Cependant, certains travaux récents ont découvert que ces systèmes peuvent abriter toutes sortes de biais inattendus et très humains. Par exemple, un algorithme de traitement du langage a récemment été trouvé pour évaluer les noms blancs comme plus "agréables" que les noms noirs, reflétant des expériences psychologiques antérieures sur des humains.

"Il se trouve que la couleur compte dans la vision artificielle"

Le problème ici est le manque de diversité des personnes et des opinions dans les bases de données utilisées pour former l'IA, qui sont créées par des humains.

"Nous avons eu ce problème avec notre base de données pour l'estimation des rides, par exemple", a déclaré Konstantin Kiselev, directeur de la technologie de Youth Laboratories, dans une interview. "Notre base de données comptait beaucoup plus de Blancs que, disons, d'Indiens. À cause de cela, il est possible que notre algorithme ait été biaisé."

"Il se trouve que la couleur compte dans la vision artificielle", m'a écrit Alex Zhavoronkov, directeur scientifique de Beauty.ai, dans un e-mail. "et pour certains groupes de population, les ensembles de données manquent d'un nombre suffisant d'échantillons pour pouvoir former les réseaux de neurones profonds."

L'autre problème pour le contenu de Beauty.ai en particulier, a déclaré Kiselev, est que la grande majorité (75%) des participants au concours étaient européens et blancs. Sept pour cent venaient d'Inde et un pour cent du continent africain. C'est 40 000 Indiens et 9 000 Africains qui, selon les algorithmes, ne correspondaient pas à l'idée de beauté qu'ils avaient été entraînés à reconnaître.

"Il est possible que seul un petit nombre de personnes aient entendu parler de notre concours dans ces endroits", a déclaré Kiselev. "Les relations publiques étaient le problème, et nous voulons faire plus de sensibilisation dans d'autres pays."

Beauty.ai organisera un autre concours de beauté en octobre, ils auront donc une autre chance de tenir leurs promesses en matière de collecte de participants de pays hors d'Europe.

Lire la suite : C'est de notre faute si l'IA pense que les noms blancs sont plus "agréables" que les noms noirs

La question de savoir comment effacer les biais dans les bases de données est cependant beaucoup plus épineuse et rappelle des développements antérieurs. Le film d'appareil photo a été conçu à l'origine pour fonctionner au mieux avec une peau blanche dans le cadre, par exemple, ce qui signifie que jusqu'à ce que l'industrie décide de corriger le problème de base, chaque appareil photo a démontré un parti pris raciste, même entre les mains de photographes ostensiblement non racistes.

En effet, Zhavoronkov m'a dit que les algorithmes de Beauty.ai écartaient parfois les selfies des personnes à la peau foncée si l'éclairage était trop faible.

L'apprentissage en profondeur est similaire d'une autre manière : les chercheurs partagent des bases de données de formation et des cadres prêts à l'emploi, souvent sans les modifier, ce qui signifie que les biais sont reproduits dans les algorithmes à tous les niveaux, même si les scientifiques eux-mêmes ont les meilleures intentions.

La seule façon de résoudre ce problème est de changer une partie du système lui-même - dans ce cas, les réseaux de bases de données sont entraînés.

"Ce dont l'industrie a besoin, c'est d'un grand référentiel centralisé de visages annotés de haute qualité et d'images annotées des différents groupes ethniques publiquement accessibles au public et pour que les startups puissent minimiser le raci

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd