Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 718

Incidents associés

Incident 4021 Rapports
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
L'algorithme de détermination de la peine criminelle n'est pas plus précis que des personnes aléatoires sur Internet
pbs.org · 2018

Recevez des e-mails sur les programmes NOVA à venir et le contenu connexe, ainsi que des reportages sur les événements actuels à travers une lentille scientifique. Adresse e-mail Code postal S'inscrire

Selon une étude récente, un algorithme informatique "impartial" utilisé pour éclairer les décisions judiciaires ne semble pas être meilleur que les évaluations d'un groupe aléatoire de personnes. De plus, l'algorithme semble émettre des recommandations racistes.

COMPAS, le logiciel que de nombreux juges utilisent pour éclairer leurs décisions de condamnation, a tendance à classer les Noirs comme à haut risque et les Blancs comme à faible risque, bien qu'ils n'incluent pas d'informations explicites sur la race. En pratique, cela se traduit par des propositions de réhabilitation plus clémentes pour les accusés blancs et des programmes plus rigoureux pour les accusés noirs du même risque de récidive.

Assistance fournie par En savoir plus

Une étude portant sur 1 000 accusés suggère qu'un algorithme utilisé par les juges de plusieurs États peut être erroné un tiers du temps.

Les résultats – et le biais – étaient statistiquement indiscernables des appels de jugement effectués par des volontaires humains sélectionnés au hasard sur Internet.

Voici John Timmer écrivant à Ars Technica :

L'importance de cet écart fait encore l'objet de débats, mais deux chercheurs du Dartmouth College ont posé une question plus fondamentale : le logiciel est-il bon ? La réponse qu'ils ont trouvée est "pas spécialement", car ses performances pourraient être égalées en recrutant des personnes sur Mechanical Turk ou en effectuant une analyse simple qui ne prend en compte que deux facteurs.

Le préjugé racial se glisse probablement dans l'algorithme COMPAS à travers les données sur les taux d'arrestation, qui dans certaines villes et certains comtés sont faussés. Equivalent, le développeur de COMPAS, affirme qu'il s'appuie sur 127 points de données différents pour déterminer les programmes de réadaptation, mais seulement sur six pour évaluer si un individu est à risque de récidive.

La nouvelle étude s'appuie sur une enquête de Pro Publica, qui a analysé les performances de COMPAS dans le comté de Broward, en Floride, entre 2013 et 2014. Des chercheurs du Dartmouth College ont recueilli des données sur l'âge, le sexe et les antécédents criminels de 1 000 accusés et les ont transmises à des «juges» bénévoles qui ont été recrutés sur Internet via le service Mechanical Turk d'Amazon.

COMPAS n'était pas meilleur que les participants à l'étude pour évaluer le risque de récidive d'un accusé. Les auteurs de l'étude ont comparé les recommandations faites par COMPAS et les participants avec des données réelles sur les récidivistes. En pratique, plus de personnes blanches dont on prévoyait qu'elles ne récidiveraient pas l'ont fait (40,3 % d'humains, 47,9 % COMPAS) par rapport aux Noirs (29,2 % d'humains, 30,9 % COMPAS). De plus, une plus grande proportion de criminels noirs ont été prédits à tort de récidiver (37,1 % d'humains, 40,4 % COMPAS) par rapport aux accusés blancs (27,2 % d'humains, 25,4 % COMPAS).

Alors que COMPAS et les jugements humains étaient similaires, les appels de jugement échoués avaient tendance à favoriser les accusés blancs et à désavantager les accusés noirs. Les faux positifs sont des cas où les criminels ne récidivent pas, mais ont été prédits. Les faux négatifs sont des cas où les criminels devaient se réformer mais ne l'ont pas fait.

Les chercheurs de Dartmouth ont également réussi à reproduire les prédictions du logiciel en ne consultant que 5% des informations que l'algorithme est censé prendre en compte.

"Le logiciel commercial d'évaluation des risques COMPAS, largement utilisé, n'est pas plus précis ou juste que les prédictions faites par des personnes ayant peu ou pas d'expertise en matière de justice pénale", écrivent les auteurs de l'étude. "Un prédicteur linéaire simple fourni avec seulement deux fonctionnalités est presque équivalent à COMPAS avec ses 137 fonctionnalités."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd