Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 716

Incidents associés

Incident 4021 Rapports
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
Les programmes sont-ils meilleurs que les gens pour prédire la récidive ?
economist.com · 2018

EN AMÉRIQUE, les ordinateurs sont utilisés depuis de nombreuses années pour faciliter les décisions de mise en liberté sous caution et de condamnation. Leurs partisans soutiennent que la logique rigoureuse d'un algorithme, formé avec une grande quantité de données, peut porter des jugements sur la récidive d'un condamné qui ne sont pas obscurcis par les préjugés humains. Deux chercheurs ont maintenant mis à l'épreuve un tel programme, COMPAS. Selon leur étude, publiée dans Science Advances, COMPAS n'a fait ni mieux ni moins bien que des personnes sans expertise particulière.

Julia Dressel et Hany Farid du Dartmouth College dans le New Hampshire ont sélectionné 1 000 accusés au hasard dans une base de données de 7 214 personnes arrêtées dans le comté de Broward, en Floride, entre 2013 et 2014, qui avaient fait l'objet d'une analyse COMPAS. Ils ont divisé leur échantillon en 20 groupes de 50. Pour chaque accusé, ils ont créé une brève description qui incluait le sexe, l'âge et les condamnations antérieures, ainsi que l'accusation pénale encourue.

Recevez notre newsletter quotidienne Améliorez votre boîte de réception et recevez notre envoi quotidien et les choix de l'éditeur.

Ils se sont alors tournés vers Amazon Mechanical Turk, un site qui recrute des volontaires pour effectuer de petites tâches en échange d'argent. Ils ont demandé à 400 de ces volontaires de prédire, sur la base des descriptions, si un accusé particulier serait arrêté pour un autre crime dans les deux ans suivant sa mise en accusation (à l'exclusion de toute peine de prison qu'il aurait pu purger) - un fait maintenant connu en raison du passage de temps. Chaque volontaire n'a vu qu'un seul groupe de 50 personnes, et chaque groupe a été vu par 20 volontaires. Lorsque Mme Dressel et le Dr Farid ont calculé les chiffres, ils ont constaté que les volontaires avaient correctement prédit si quelqu'un avait été de nouveau arrêté 62,1% du temps. Lorsque les jugements des 20 qui ont examiné le cas d'un accusé particulier ont été mis en commun, ce chiffre est passé à 67%. COMPAS avait obtenu un score de 65,2 %, soit essentiellement la même chose que les volontaires humains.

Pour voir si la mention de la race d'une personne (une question épineuse dans le système de justice pénale américain) affecterait de tels jugements, Mme Dressel et le Dr Farid ont recruté 400 volontaires supplémentaires et ont répété leur expérience, cette fois en ajoutant la race de chaque accusé à la description. Cela n'a fait aucune différence. Les participants ont identifié les personnes réarrêtées avec une précision de 66,5 %.

Tout cela suggère que COMPAS, bien qu'imparfait, est en effet aussi bon que le bon sens humain pour analyser les faits pertinents afin de prédire qui reviendra et ne reviendra pas à l'attention de la loi. C'est encourageant. Qu'il s'agisse d'un bon rapport qualité-prix, cependant, est une question différente, car Mme Dressel et le Dr Farid ont conçu leur propre algorithme qui était aussi précis que COMPAS pour prédire la réarrestation lorsqu'il était alimenté par les données du comté de Broward, mais qui n'implique que deux entrées - le l'âge du prévenu et le nombre de condamnations antérieures.

Comme le souligne Tim Brennan, scientifique en chef chez Equivant, qui fabrique COMPAS, l'algorithme des chercheurs, ayant été formé et testé sur des données provenant d'un seul et même endroit, pourrait s'avérer moins précis s'il est confronté à des enregistrements d'ailleurs. Mais tant que l'algorithme derrière COMPAS lui-même reste propriétaire, une comparaison détaillée des vertus des deux n'est pas possible.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd