Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 706

Incidents associés

Incident 4021 Rapports
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
Une étude révèle que l'algorithme n'est pas meilleur que des personnes aléatoires pour prédire la récidive
privacyinternational.org · 2019

Dans une étude de COMPAS, un outil algorithmique utilisé dans le système de justice pénale américain, les chercheurs du Dartmouth College, Julia Dressel et Hany Farid, ont découvert que l'algorithme ne faisait pas mieux que les volontaires recrutés via un site de crowdsourcing. COMPAS, un algorithme exclusif d'évaluation des risques développé par Equivant (anciennement Northpointe), considère les réponses à un questionnaire de 137 éléments afin de fournir des prédictions qui sont utilisées pour prendre des décisions concernant la peine et la probation. Dans une affaire intentée par un défendeur, qui a affirmé que l'utilisation d'un algorithme dont le fonctionnement interne était un secret de propriété, violait la procédure régulière.

Des critiques antérieures telles qu'une étude de 2017 de ProPublica ont conduit à des débats sur la façon de mesurer l'équité. Cependant, aucun n'a testé l'affirmation cruciale selon laquelle l'algorithme fournissait des prédictions plus précises que les humains. Pour tester cela, Dressel et Farid ont demandé à 400 volontaires non experts de deviner si un accusé commettrait un autre crime dans les deux ans en donnant de brèves descriptions des accusés de l'enquête de ProPublica dans laquelle sept éléments d'information ont été mis en évidence. En moyenne, le groupe a obtenu la bonne réponse 63 % du temps - et 67 % du temps si leurs réponses étaient regroupées. La précision de COMPAS est de 65 %. Parce qu'Equivant ne divulgue pas son algorithme d'étude, les chercheurs ont continué à construire le leur, en le rendant aussi simple que possible ; il a montré une précision de 67%, même en utilisant seulement deux informations, l'âge de l'accusé et le nombre de condamnations antérieures. D'autres chercheurs ont trouvé des résultats similaires.

Farid et Dressel soutiennent que le point n'est pas que ces algorithmes ne doivent pas être utilisés, mais qu'ils doivent être compris et tenus de prouver qu'ils fonctionnent avant qu'ils ne soient utilisés pour déterminer le cours de la vie des gens.

https://www.theatlantic.com/technology/archive/2018/01/equivant-compas-algorithm/550646/

mots-clés: justice pénale, COMPAS, algorithmes, recherche, tests scientifiques, Dartmouth, taux d'erreur, prédiction

Scénariste : Ed Yong

Publication : L'Atlantique

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd