Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2658

Loading...
Des chercheurs en intelligence artificielle affirment que les éditeurs scientifiques contribuent à perpétuer les algorithmes racistes
technologyreview.com · 2020

Pourquoi c'est important : Alors que la lettre met en évidence un article spécifique, l'objectif des auteurs est de démontrer un problème systématique avec la façon dont la publication scientifique incite les chercheurs à perpétuer des normes contraires à l'éthique. "C'est pourquoi nous continuons à voir la science des races émerger à maintes reprises", a déclaré Chelsea Barabas, doctorante au MIT et l'une des coauteurs de la lettre. "C'est parce que les éditeurs le publient." "La véritable signification de cette pièce de Springer est qu'elle n'est pas du tout unique", a fait écho Theodora Dryer, chercheuse postdoctorale à AI Now et autre co-auteur. "C'est emblématique d'un problème et d'une critique qui dure depuis si longtemps."

Réponse de Springer : En réponse à la lettre, Springer a déclaré qu'il ne publierait pas l'article. "Le document auquel vous faites référence a été soumis à une prochaine conférence dont Springer avait prévu de publier les actes", a-t-il déclaré. "Après un processus approfondi d'examen par les pairs, l'article a été rejeté." L'Université de Harrisburg a également retiré son communiqué de presse, déclarant que "la faculté met à jour le document pour répondre aux préoccupations soulevées". L'Université de Harrisburg et un co-auteur de l'article ont refusé une demande de commentaire ainsi qu'une demande d'exemplaire de l'article original. Les signataires de la lettre ont déclaré qu'ils continueraient à faire pression pour que leurs deuxième et troisième demandes soient satisfaites.

La vue d'ensemble : Depuis que la mort de George Floyd a déclenché un mouvement international pour la justice raciale, le domaine de l'IA et l'industrie technologique dans son ensemble ont été confrontés à un examen du rôle qu'ils ont joué dans le renforcement du racisme structurel. Au cours de la semaine du 8 juin, par exemple, IBM, Microsoft et Amazon ont tous annoncé la fin ou la suspension partielle de leurs produits de reconnaissance faciale. Cette décision a été l'aboutissement de deux ans de plaidoyer de la part de chercheurs et de militants démontrer un lien entre ces technologies et la surpolice des communautés minoritaires. La lettre ouverte est le dernier développement de ce mouvement vers une plus grande responsabilité éthique dans l'IA.

« Nous voulions vraiment contribuer à ce mouvement grandissant », a déclaré Sonja Solomun, directrice de recherche du Centre pour les médias, la technologie et la démocratie de l'Université McGill. "Particulièrement lorsque nous regardons par nos fenêtres et voyons ce qui se passe en ce moment aux États-Unis et dans le monde, les enjeux sont tellement élevés."

Mise à jour : Après la publication, Springer Nature a publié une déclaration précisant qu'"à aucun moment [l'article] n'a été accepté pour publication... La décision de l'éditeur de la série de rejeter l'article final a été prise le mardi 16 juin et a été officiellement communiquée aux auteurs le lundi 22 juin."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd