Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2637

Incidents associés

Incident 4693 Rapports
Automated Adult Content Detection Tools Showed Bias against Women Bodies

Loading...
Un algorithme de Google semble penser que des marques comme Boohoo et Missguided sont plutôt "racées"
graziadaily.co.uk · 2019

Une enquête sur les vêtements de différentes marques de mode a mis en évidence le fait que Google utilise un logiciel pour évaluer l'imagerie dans le cadre d'un outil de "recherche sécurisée" et évalue les vêtements en fonction de leur caractère "étroit ou transparent".

L'outil de recherche sécurisée de Google détecte les images pour adultes, parodies, médicales, violentes et "racées" afin d'empêcher les enfants utilisateurs de voir du contenu explicite, ou les adultes d'en voir au travail. Alors que l'outil de recherche est en grande partie responsable, la manière dont le logiciel détermine les images "racées" est apparemment assez problématique.

La BBC a lancé une enquête sur la modestie des vêtements des marques de mode grand public par rapport à [la mode rapide](https://graziadaily. co.uk/fashion/news/can-call-feminist-buy-fast-fashion/), constatant que [marques de mode rapide](https://graziadaily.co.uk/fashion/news/fast-fashion-sustainability -impact environnemental-2/), comme Missguided, Pretty Little Thing, I Saw It First, Boohoo et Nasty Gal, ont deux fois plus d'images "racées" sur leurs sites Web que les marques de grande rue.

Selon le logiciel de Google, 8 % des images de mannequins féminins sur les sites Web de grande rue étaient "racées", contre 16 % des sites de mode rapide. Parmi les entreprises analysées (y compris des marques de grande distribution telles que Topshop, River Island, New Look et Urban Outfitters), sept avaient des sites pour hommes où seulement 2 % des images étaient classées comme "racées".

"Notre site Web reflète ce qui plaît aux jeunes femmes qui aiment acheter chez nous - impertinentes, autonomes, sans peur de ce que les autres pensent", a déclaré un représentant de Missguided à la BBC. "Nous gérons notre site Web pour eux, pas un algorithme d'intelligence artificielle."

Le logiciel n'identifie pas seulement la race par les vêtements, mais aussi par la manière dont les modèles posent. Ainsi, si un modèle est considéré comme posant de manière "séduisante", l'image recevra un score de racine plus élevé. Naturellement, les maillots de bain ou les sous-vêtements sur un site affectent également le score global.

Donc, apparemment, le logiciel de Google assimile clairement la nudité au sexe. Malgré le fait que les femmes portent moins de vêtements dans de nombreux contextes non sexuels - vous savez, se baigner, nager, chez le médecin - cet algorithme semble ne voir la nudité que dans un sens sexuel.

En fin de compte, à part cette enquête qui s'est révélée entièrement réductrice, avions-nous vraiment besoin de données sur la façon dont la mode rapide les marques vendre plus de vêtements transparents ? ! – cela prouve également que Google doit mettre à jour son logiciel pour s'adapter au programme. Jeu de mots volontaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd