Journal des citations pour l'incident 103

Description: Twitter's photo cropping algorithm was revealed by researchers to favor white and women faces in photos containing multiple faces, prompting the company to stop its use on mobile platform.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Twitter, endommagé Twitter Users , Twitter non-white users and Twitter non-male users.

Statistiques d'incidents

ID
103
Nombre de rapports
5
Date de l'incident
2020-09-18
Editeurs
Sean McGregor, Khoa Lam

Classifications de taxonomie GMF

Détails de la taxonomie

Known AI Goal

Image Cropping

Known AI Technology

Neural Network

Known AI Technical Failure

Generalization Failure

Potential AI Technical Failure

Distributional Bias, Incomplete Data Attribute Capture

Pourquoi l'algorithme de recadrage d'image de Twitter semble avoir un biais blanc
thenextweb.com · 2020

L'algorithme de Twitter pour recadrer automatiquement les images jointes aux tweets ne se concentre souvent pas sur le contenu important qu'ils contiennent. Un problème, bien sûr, mais cela semble mineur à la surface. Cependant, au cours du…

L'algorithme de recadrage de photos de Twitter favorise les visages blancs et les femmes
wired.com · 2021

Une étude de 10 000 images a révélé un biais dans ce que le système choisit de mettre en évidence. Twitter a cessé de l'utiliser sur mobile et envisagera de l'abandonner sur le Web.

L'AUTOMNE DERNIER, l'étudiant CANADIEN Colin Madland a rem…

Partager les apprentissages sur notre algorithme de recadrage d'images
blog.twitter.com · 2021

En octobre 2020, nous avons entendu des commentaires de personnes sur Twitter selon lesquels notre [algorithme de recadrage d'image](https: //blog.twitter.com/engineering/en_us/topics/infrastructure/2018/Smart-Auto-Cropping-of-Images.html) …

Twitter lance un concours de bug bounty pour détecter les biais algorithmiques
engadget.com · 2021

Twitter a présenté des plans pour un concours de primes de bogues avec une différence. Cette fois-ci, au lieu de payer les chercheurs qui découvrent des problèmes de sécurité, Twitter récompensera ceux qui trouveront des exemples de biais e…

Le programme AI Bounty de Twitter révèle un parti pris envers les jeunes et jolies personnes blanches
engadget.com · 2021

Le premier [programme de primes pour le biais de l'IA] de Twitter (https://www.engadget.com/twitter-bug-bounty-contest-algorithm-bias-image-cropping-185634779.html) est terminé, et il y a déjà des problèmes que l'entreprise souhaite résoudr…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents