Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2145

Incidents associés

Incident 1035 Rapports
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Loading...
Le programme AI Bounty de Twitter révèle un parti pris envers les jeunes et jolies personnes blanches
engadget.com · 2021

Le premier [programme de primes pour le biais de l'IA] de Twitter (https://www.engadget.com/twitter-bug-bounty-contest-algorithm-bias-image-cropping-185634779.html) est terminé, et il y a déjà des problèmes que l'entreprise souhaite résoudre. CNET rapports que l'étudiant diplômé Bogdan Kulynych a découvert que les filtres de beauté photo faussent le système de notation de l'algorithme de saillance (importance) de Twitter en faveur des personnes plus minces, plus jeunes et à la peau plus claire (ou plus chaude). Les résultats montrent que les algorithmes peuvent "amplifier les préjugés du monde réel" et les attentes de beauté conventionnelles, a déclaré Twitter.

Ce n'était pas le seul problème. Halt AI a appris que l'algorithme de saillance de Twitter "perpétuait la marginalisation" en supprimant les personnes âgées et les personnes handicapées. La chercheuse Roya Pakzad, quant à elle, trouve que l'algorithme de saillance préfère recadrer l'écriture latine plutôt que l'arabe. Un autre chercheur a repéré un parti pris pour les emojis à la peau claire, tandis qu'un contributeur anonyme a découvert que des pixels presque invisibles pouvaient manipuler les préférences de l'algorithme

Twitter a publié le code pour les entrées gagnantes.

La société n'a pas précisé dans combien de temps elle pourrait remédier aux biais algorithmiques. Cependant, cela fait partie d'un montage contrecoup aux filtres de beauté sur leur tendance à créer ou à renforcer des normes irréalistes. Google, par exemple, a désactivé la retouche automatique des selfies sur les téléphones Pixel et a cessé de se référer aux processus comme des filtres de beauté. Il ne serait pas surprenant que l'algorithme de Twitter adopte une position plus neutre sur le contenu dans un avenir proche.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd