Description: Eight years after Google Photos mislabeled images of Black individuals as "gorillas," image recognition software by Google, Apple, Amazon, and Microsoft still shows signs of either avoiding or inaccurately categorizing primates. Tests reveal that Google and Apple Photos refrain from labeling primates altogether, possibly to avoid the risk of perpetuating racial stereotypes. Microsoft OneDrive fails to identify any animals, while Amazon Photos overgeneralizes in its labeling.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Google , Apple , Amazon and Microsoft, endommagé Consumers relying on accurate image categorization and members of racial and ethnic minorities who risk being stereotyped or misrepresented.
Statistiques d'incidents
ID
587
Nombre de rapports
1
Date de l'incident
2023-05-22
Editeurs
Daniel Atherton
Rapports d'incidents
Chronologie du rapport
nytimes.com · 2023
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Huit ans après une controverse sur les Noirs étiquetés à tort comme des gorilles par les logiciels d’analyse d’images – et malgré les grands progrès de la vision par ordinateur – les géants de la technologie craignent toujours de répéter l’…
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 6 rapports
Policing the Future
· 17 rapports
Machine Bias - ProPublica
· 15 rapports
Incidents similaires
Did our AI mess up? Flag the unrelated incidents
Danger, danger! 10 alarming examples of AI gone wild
· 6 rapports
Policing the Future
· 17 rapports
Machine Bias - ProPublica
· 15 rapports