Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 36

Incidents associés

Incident 1115 Rapports
Northpointe Risk Models

Loading...
L'analyse de ProPublica révèle un biais dans le système de notation des risques de justice pénale COMPAS
privacyinternational.org · 2016

Les programmes informatiques qui effectuent des évaluations des risques des suspects de crime sont de plus en plus courants dans les salles d'audience américaines et sont utilisés à chaque étape des systèmes de justice pénale pour déterminer qui peut être libéré ou bénéficier d'une libération conditionnelle, et le montant de la caution qu'ils doivent payer. En 2016, les résultats de ces évaluations ont été communiqués aux juges lors de la condamnation pénale et un projet de loi sur la réforme de la peine a été proposé au Congrès pour rendre obligatoire l'utilisation de ces évaluations dans les prisons fédérales. Dans une étude des scores de risque attribués à plus de 7 000 personnes dans le comté de Broward en Floride en 2013 et 2014, ProPublica a découvert que seulement 20 % des personnes que le système prévoyait commettant des crimes violents l'avaient réellement fait. Pour l'ensemble des crimes, y compris les délits, 61 % des personnes susceptibles de récidiver ont été arrêtées pour des crimes ultérieurs au cours des deux années suivantes.

ProPublic a également constaté d'importantes disparités raciales. Bien que l'algorithme ait fait des erreurs à peu près au même rythme pour les accusés noirs et blancs, il a incorrectement étiqueté les accusés noirs comme susceptibles de commettre d'autres crimes à deux fois plus que les accusés blancs. À l'inverse, les accusés blancs ont été étiquetés à tort comme à faible risque plus souvent que les accusés noirs. Northpointe, la société qui a produit le système, connue sous le nom de COMPAS, a contesté l'analyse de ProPublic mais a refusé de partager ses calculs, qui, selon la société, étaient exclusifs. Cependant, il a révélé que les bases de sa formule incluaient des facteurs tels que le niveau d'éducation et le statut d'emploi parmi les 137 questions auxquelles les accusés ont répondu ou extraites des casiers judiciaires. Ces outils ont été déployés dans de nombreux domaines avant d'avoir fait l'objet d'une évaluation rigoureuse, et les accusés sont rarement en mesure de connaître la base des notes qui leur sont attribuées.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Scénario : Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner

Publication : ProPublica

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd