Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 700

Incidentes Asociados

Incidente 4021 Reportes
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
Cómo analizamos el algoritmo de reincidencia COMPAS
propublica.org · 2016

← Leer la historia

En todo el país, los jueces y los oficiales de libertad condicional utilizan cada vez más algoritmos para evaluar la probabilidad de que un acusado de un delito se convierta en reincidente, un término que se usa para describir a los delincuentes que reinciden. Hay docenas de estos algoritmos de evaluación de riesgos en uso. Muchos estados han creado sus propias evaluaciones y varios académicos tienen herramientas escritas. También hay dos herramientas líderes a nivel nacional ofrecidas por proveedores comerciales.

Nos propusimos evaluar una de las herramientas comerciales creadas por Northpointe, Inc. para descubrir la precisión subyacente de su algoritmo de reincidencia y probar si el algoritmo estaba sesgado contra ciertos grupos.

Nuestro análisis de la herramienta de Northpointe, llamada COMPAS (que significa Perfil de manejo de delincuentes correccionales para sanciones alternativas), encontró que los acusados negros tenían muchas más probabilidades que los blancos de ser juzgados incorrectamente por tener un mayor riesgo de reincidencia, mientras que los acusados blancos tenían más probable que los acusados negros sean marcados incorrectamente como de bajo riesgo.

Observamos a más de 10,000 acusados de delitos en el condado de Broward, Florida, y comparamos sus tasas de reincidencia previstas con la tasa que realmente ocurrió durante un período de dos años. Cuando la mayoría de los acusados ingresan en la cárcel, responden a un cuestionario COMPAS. Sus respuestas se introducen en el software COMPAS para generar varios puntajes que incluyen predicciones de "Riesgo de reincidencia" y "Riesgo de reincidencia violenta".

Comparamos las categorías de riesgo de reincidencia predichas por la herramienta COMPAS con las tasas reales de reincidencia de los acusados en los dos años posteriores a la calificación, y descubrimos que la puntuación predijo correctamente la reincidencia de un delincuente el 61 por ciento de las veces, pero solo fue correcta en sus predicciones. de reincidencia violenta el 20 por ciento de las veces.

Al pronosticar quién volvería a delinquir, el algoritmo predijo correctamente la reincidencia para los acusados blancos y negros en aproximadamente la misma tasa (59 por ciento para los acusados blancos y 63 por ciento para los negros), pero cometió errores de maneras muy diferentes. Clasifica erróneamente a los acusados blancos y negros de manera diferente cuando se examina durante un período de seguimiento de dos años.

Nuestro análisis encontró que:

A menudo se predijo que los acusados negros tenían un mayor riesgo de reincidencia de lo que realmente tenían. Nuestro análisis encontró que los acusados negros que no reincidieron durante un período de dos años tenían casi el doble de probabilidades de ser clasificados erróneamente como de mayor riesgo en comparación con sus contrapartes blancos (45 por ciento frente a 23 por ciento).

A menudo se predijo que los acusados blancos serían menos riesgosos de lo que eran. Nuestro análisis encontró que los acusados blancos que reincidieron en los próximos dos años fueron etiquetados erróneamente como de bajo riesgo con casi el doble de frecuencia que los negros reincidentes (48 por ciento frente a 28 por ciento).

El análisis también mostró que incluso al controlar los delitos anteriores, la reincidencia futura, la edad y el género, los acusados negros tenían un 45 por ciento más de probabilidades de recibir puntuaciones de riesgo más altas que los acusados blancos.

Los acusados negros también tenían el doble de probabilidades que los acusados blancos de ser clasificados erróneamente como de mayor riesgo de reincidencia violenta. Y los reincidentes violentos blancos tenían un 63 por ciento más de probabilidades de haber sido clasificados erróneamente como de bajo riesgo de reincidencia violenta, en comparación con los reincidentes violentos negros.

El análisis de reincidencia violenta también mostró que incluso cuando se controlaban los delitos anteriores, la reincidencia futura, la edad y el género, los acusados negros tenían un 77 por ciento más de probabilidades de recibir puntuaciones de riesgo más altas que los acusados blancos.

Trabajo previo

En 2013, los investigadores Sarah Desmarais y Jay Singh examinaron 19 metodologías de riesgo de reincidencia diferentes que se utilizan en los Estados Unidos y descubrieron que “en la mayoría de los casos, la validez solo se había examinado en uno o dos estudios realizados en los Estados Unidos y, con frecuencia, esas investigaciones fueron completados por las mismas personas que desarrollaron el instrumento.”

Su análisis de la investigación publicada antes de marzo de 2013 encontró que las herramientas "eran moderadas en el mejor de los casos en términos de validez predictiva", dijo Desmarais en una entrevista. Y no pudo encontrar ningún conjunto sustancial de estudios realizados en los Estados Unidos que examinaran si las puntuaciones de riesgo tenían sesgos raciales. “Los datos no existen”, dijo.

El examen más grande del sesgo racial en los algoritmos de evaluación de riesgos de EE. UU. desde entonces es un artículo de 2016 de Jennifer Skeem en la Universidad de California, Berkeley y Christopher T. Lowenkamp de la Oficina Administrativa de los Tribunales de EE. UU. Examinaron datos sobre 34,000 delincuentes federales para probar la validez predictiva de la herramienta de evaluación de riesgos posterior a la condena que fue desarrollada por los tribunales federales para ayudar a los oficiales de libertad condicional y libertad condicional a determinar el nivel de supervisión requerido para un recluso al ser liberado.

Los autores encontraron que la puntuación de riesgo promedio para los delincuentes negros era más alta que para los delincuentes blancos, pero eso concluyó que las diferencias no se podían atribuir a un sesgo.

Un estudio de 2013 analizó la validez predictiva entre varias razas para otro puntaje llamado Inventario de nivel de servicio, en

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd