Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1107

Incidents associés

Incident 6023 Rapports
FaceApp Racial Filters

Loading...
FaceApp contraint d'extraire des filtres "racistes" qui autorisent le "blackface numérique"
theguardian.com · 2017

Le programme alimenté par l'IA a permis aux utilisateurs de modifier des selfies pour les intégrer dans les catégories "Caucasien, Asiatique, Indien ou Noir" provoquant l'indignation et un demi-tour immédiat

Le populaire programme de selfie alimenté par l'IA, FaceApp, a été contraint d'extraire de nouveaux filtres qui permettaient aux utilisateurs de modifier leurs photos pour qu'elles ressemblent à différentes races, quelques heures seulement après son lancement.

L'application, qui est initialement devenue célèbre pour ses fonctionnalités qui permettent aux utilisateurs de modifier des images pour paraître plus vieilles ou plus jeunes, ou ajouter un sourire, a lancé les nouveaux filtres vers midi mercredi. Ils permettaient à un utilisateur de modifier son image pour l'adapter à l'une des quatre catégories suivantes : Caucasien, Asiatique, Indien ou Noir.

Les «filtres ethniques» de Parker Molloy (@ParkerMolloy) FaceApp sont une idée assez terrible. Comme, peut-être l'une des pires idées. https://t.co/kV09pNpWRs

Les utilisateurs ont rapidement souligné que la fonctionnalité n'était pas gérée avec beaucoup de sensibilité : le site technologique The Verge l'a décrite comme "équivalant à une sorte de visage noir numérique, "se déguisant" en différentes ethnies", tandis que TechCruch a déclaré que l'application "semble obtenir un peu trop axé sur les courses plutôt que sur les visages ».

Alex Nichols (@Lowenaffchen) moi et mes trois demi-frères ethniquement divers condamnons sans équivoque les nouveaux filtres faceapp pic.twitter.com/uMNfIrb73f

La société a initialement publié une déclaration affirmant que les "filtres de changement d'ethnicité" étaient "conçus pour être égaux à tous égards".

"Ils n'ont aucune connotation positive ou négative qui leur est associée", a déclaré le directeur général de la société, Yaroslav Gontcharov. « Ils sont même représentés par la même icône. En plus de cela, la liste de ces filtres est mélangée pour chaque photo, de sorte que chaque utilisateur les voit dans un ordre différent.

Mais à 17 heures le même jour, FaceApp était apparemment d'accord avec la critique, retirant les nouveaux filtres de son application. Ils étaient indisponibles pour les utilisateurs quelques heures plus tard.

Lucas Matney (@lucasmtny) Wow … FaceApp place vraiment la barre pour l'AR raciste avec sa terrible nouvelle mise à jour qui inclut des "filtres de course" noirs, indiens et asiatiques pic.twitter.com/Lo5kmLvoI9

Ce n'est même pas la première fois que l'application patauge dans cette tempête. En avril, il a été critiqué pour son filtre "chaud", censé rendre les utilisateurs plus attrayants. Dans le processus, cela a également éclairci leur teint, ce qui a conduit à des questions inconfortables sur ce que l'IA avait appris sur la nature de la beauté.

Il n'y a pas que les petites applications qui font ces gaffes. Snapchat a fait face à un opprobre similaire pour un filtre qui faisait ressembler les utilisateurs au regretté chanteur de reggae Bob Marley, rempli de dreadlocks de dessin animé et d'une casquette; De plus, le filtre a été lancé le 20 avril 2016, un jour ("4/20") connu pour son association avec la culture de la mauvaise herbe - ce qui a conduit à des accusations selon lesquelles l'entreprise dépréciait l'héritage de Marley.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd