Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1101

Incidents associés

Incident 6023 Rapports
FaceApp Racial Filters

Loading...
FaceApp accuse l'IA de blanchir les Noirs
gizmodo.co.uk · 2017

Les personnes qui veulent réellement voir leur visage se refléter sur les écrans de leur téléphone se sont récemment amusées avec FaceApp, Facebook et Twitter étant actuellement surchargés d'images d'utilisateurs partageant à quoi ils ressemblent jeunes, vieux et "chauds", adaptés par les filtres de l'application.

Ce qui est tout à fait inoffensif et amusant, mais pour le fait que l'image "chaude" devient un problème pour le fabricant de l'application, car les utilisateurs à la peau plus foncée découvrent que tout ce qu'elle fait vraiment est d'amincir leurs traits et les rendre blancs. Ce qui est vraiment assez gênant et entraîne des tweets désastreux de relations publiques de haut niveau comme celui-ci :

J'ai donc téléchargé cette application et j'ai décidé de choisir le filtre "chaud" sans savoir que cela me rendrait blanc. C'est 2017, allez les gars smh#FaceApp pic.twitter.com/9U9dv9JuCm — Shahquelle L. (@RealMoseby96) 20 avril 2017

Il supprime également les lunettes car il pense que tous les porteurs de lunettes sont des perdants. Le fabricant de l'application n'en assume pas non plus la responsabilité et se plaint plutôt des problèmes d'apprentissage automatique et du réseau neuronal. Il a déclaré à la BBC : "Nous sommes profondément désolés pour ce problème incontestablement grave. C'est un effet secondaire malheureux du réseau neuronal sous-jacent causé par le biais de l'ensemble d'entraînement, et non par un comportement intentionnel."

Donc ils ont accidentellement créé un ordinateur raciste et vous devez être en colère contre l'ordinateur, d'accord ? Et au lieu de le réparer, ils ont simplement renommé la fonctionnalité de "hot" à "spark".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd