Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 37

Incidentes Asociados

Incidente 1115 Reportes
Northpointe Risk Models

Loading...
¿Son racistas las puntuaciones de evaluación de riesgos penales?
brookings.edu · 2016

Imagine que lo declararon culpable de un delito y estaba esperando conocer su sentencia. ¿Preferiría que su sentencia sea determinada por un algoritmo informático, que sopesa desapasionadamente los factores que predicen su riesgo futuro de delito (como la edad o los arrestos anteriores) o por la evaluación subjetiva de un juez? ¿Y cambiaría esa elección si fueras de una raza diferente?

La tecnología a menudo se presenta como una forma de reducir las disparidades raciales en el sistema de justicia penal. Si las disparidades existentes se deben, al menos en parte, a los prejuicios raciales de los testigos, la policía y los jueces, entonces reemplazar algunos juicios humanos con algoritmos informáticos que estiman el riesgo delictivo podría producir un sistema más justo. Pero, ¿podrían esos algoritmos también exhibir prejuicios raciales? Esta es una buena pregunta, pero no es fácil de responder utilizando los datos existentes.

Una historia de ProPublica en mayo afirmó que los puntajes de riesgo calculados por la firma privada NorthPointe están plagados de prejuicios raciales, dando sistemáticamente puntajes de riesgo más altos a los negros que a los blancos similares. Si es cierto, este es un problema importante, ya que los tribunales de todo el país usan puntajes de riesgo para determinar la fianza, la sentencia, la libertad condicional y más. Este estudio ha recibido considerable atención de los medios e incluso fue citado por la Corte Suprema de Wisconsin en una decisión legal que limita el uso de evaluaciones de riesgo. Sin embargo, contiene varios errores importantes de razonamiento que ponen en duda las conclusiones.

El estudio de ProPublica cita una disparidad en las "tasas de falsos positivos" como evidencia de prejuicio racial: los acusados negros que no reincidieron tenían más probabilidades de haber sido clasificados como de alto riesgo que los acusados blancos. Como se señaló en la respuesta de NorthPointe y se explicó en una columna reciente de Robert Verbruggen, estas estadísticas son peligrosamente engañosas. Cualquier grupo que tenga tasas de reincidencia más altas (y, por lo tanto, puntuaciones de riesgo más altas, en promedio) mecánicamente tendrá una tasa de falsos positivos más alta, incluso si la puntuación de riesgo es completamente imparcial.

(La intuición básica es esta: la tasa de falsos positivos es el número de personas etiquetadas como de alto riesgo que no reinciden dividido por el número total de personas que no reinciden. En un grupo con altas tasas de reincidencia, el numerador será mayor porque el grupo de personas etiquetadas como de alto riesgo es más grande y el denominador será más pequeño porque hay menos personas que no reinciden. El resultado es que la proporción de estos números es siempre mayor que la de los grupos de baja reincidencia).

Parece contradictorio, pero las disparidades en los falsos positivos no nos dicen nada sobre las disparidades raciales en el algoritmo. Las tasas dispares de falsos positivos estarán presentes cada vez que haya tasas dispares de reincidencia, independientemente del sesgo racial y de si la puntuación de riesgo se realiza mediante un algoritmo informático o mediante la evaluación subjetiva de un juez.

Sin embargo, incluso si observamos el conjunto correcto de números, nos enfrentamos a un problema mayor: los puntajes de riesgo influyen en las sentencias y las sentencias influyen en la reincidencia. Considere a un acusado a quien los tribunales le ordenan someterse a asesoramiento sobre abuso de sustancias debido a su alto puntaje de riesgo. Si no vuelve a delinquir, ¿se debe a que la puntuación de riesgo fue incorrecta o a que la consejería sobre abuso de sustancias fue efectiva? Considere un segundo acusado que recibió una sentencia de prisión como resultado de su puntaje de alto riesgo. Si no vuelve a delinquir, ¿es porque la puntuación de riesgo estaba equivocada o porque estuvo en prisión hasta que fue demasiado mayor para cometer delitos? Las tasas de reincidencia no nos dicen cuál era la propensión de una persona a cometer otro delito en el momento en que se calculó la puntuación de riesgo. Y, por lo tanto, tienen un uso limitado para determinar la precisión de esos puntajes. Un muy buen artículo de Shawn Bushway y Jeffrey Smith explica este punto en profundidad.

Si bien los problemas metodológicos cuestionan las conclusiones de ProPublica, el posible sesgo racial en la evaluación de riesgos sigue siendo un problema importante. Cerca de 20 estados están utilizando la evaluación de riesgos para ayudar a determinar la sentencia en al menos algunas jurisdicciones, y las evaluaciones de riesgos en fianza y libertad condicional son aún más comunes. Teniendo en cuenta que muchas de las entradas para las evaluaciones de riesgo, como los arrestos anteriores, están sujetas a prácticas policiales racialmente dispares, no sería sorprendente que las puntuaciones de riesgo llevaran parte de este sesgo. Estos son temas complicados, y académicos como Richard Berk y Sandra Mayson brindan un análisis más profundo sobre cómo deberíamos pensar en la equidad y la justicia en la evaluación de riesgos. Pero una de las preguntas políticas más importantes es simple: ¿las evaluaciones de riesgo aumentan o disminuyen las disparidades raciales en comparación con las decisiones subjetivas de los jueces?

Un enfoque ideal para responder a esta pregunta sería un experimento en el que se asigna aleatoriamente a algunos jueces para que utilicen evaluaciones de riesgo como parte de sus decisiones (sus acusados son el grupo de tratamiento) y algunos jueces para que operen como antes (sus acusados son el grupo de control). ). Luego podríamos comparar las discrepancias raciales en las sentencias para el grupo de tratamiento y el grupo de control, para determinar el efecto de incorporar ri

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd