Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 704

Incidentes Asociados

Incidente 4021 Reportes
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
Sentencia por números: la aterradora verdad detrás de los algoritmos de evaluación de riesgos
digitalethics.org · 2018

Aunque las tasas de criminalidad han disminuido constantemente desde la década de 1990, las tasas de reincidencia siguen siendo un factor tanto en las áreas de seguridad pública como en el manejo de prisioneros. El Instituto Nacional de Justicia define la reincidencia como "actos delictivos que resultaron en un nuevo arresto, una nueva condena o el regreso a la prisión con o sin una nueva sentencia", y con más del 75 por ciento de los presos liberados vueltos a arrestar dentro de los cinco años, es evidente que hay margen de mejora. . En un esfuerzo por agilizar las sentencias, reducir la reincidencia y aumentar la seguridad pública, las empresas privadas han desarrollado algoritmos de justicia penal para usar en los tribunales. Estas herramientas, a veces llamadas "evaluaciones de riesgo", tienen como objetivo recomendar la duración y la gravedad de la sentencia específicas para cada acusado en función de un conjunto de fórmulas patentadas. Desafortunadamente, la naturaleza patentada de los algoritmos significa que ni los abogados ni el público en general tienen acceso a la información necesaria para comprender o defenderse de estas evaluaciones.

Hay docenas de estos algoritmos actualmente en uso a nivel federal y estatal en todo el país. Uno de los más controvertidos, el Perfil de gestión de delincuentes correccionales para sanciones alternativas o COMPAS, llegó a los titulares en 2016 cuando el acusado Eric Loomis recibió una sentencia de seis años por imprudencia temeraria, eludir a la policía, conducir un automóvil sin el consentimiento del propietario, posesión de armas de fuego, violación de la libertad condicional y resistencia al arresto: una sentencia basada parcialmente en su puntaje COMPAS. Loomis, un delincuente sexual registrado, impugnó el veredicto, alegando que COMPAS violó su derecho constitucional al debido proceso porque no pudo presentar una impugnación adecuada. Su argumento era doble: que la naturaleza patentada de la fórmula le negaba a él y a su equipo de defensa el acceso a sus datos, y que COMPAS toma en cuenta la raza y el género al predecir los resultados, lo que constituye un sesgo. Su caso fue denegado por el tribunal inferior, pero Loomis se negó a dar marcha atrás y, en cambio, apeló ante la Corte Suprema de Wisconsin.

En julio de 2016, una decisión unánime de la Corte Suprema de Wisconsin confirmó la decisión del estado de usar programas automatizados para determinar la sentencia. En su opinión, la jueza Ann Walsh Bradley escribió: “Aunque no puede ser determinante, un tribunal de sentencia puede usar una evaluación de riesgo COMPAS como un factor relevante para asuntos tales como: (1) desviar a los delincuentes de bajo riesgo encarcelados a una prisión que no sea de riesgo; alternativa carcelaria; (2) evaluar si un delincuente puede ser supervisado de manera segura y eficaz en la comunidad; y (3) imponer términos y condiciones de libertad condicional, supervisión y respuestas a violaciones”. En respuesta a la afirmación de Loomis de que la raza y, en particular, el género pueden distorsionar los resultados e interferir con el debido proceso, Bradley explicó además que "considerar el género en una evaluación de riesgos de COMPAS es necesario para lograr precisión estadística". de las limitaciones potenciales de las herramientas de evaluación de riesgos y las pautas sugeridas para su uso, como el control de calidad y los controles de validación del software, así como la educación del usuario.

Sin embargo, un informe del Electronic Privacy Information Center (EPIC) advierte que, en muchos casos, los problemas de validez y capacitación se pasan por alto en lugar de abordarse. Para subrayar su argumento, EPIC, un centro de investigación de interés público que enfoca la atención del público en temas emergentes de privacidad y libertades civiles, compiló un cuadro que relaciona los estados con las herramientas de evaluación de riesgos utilizadas en sus prácticas de sentencia. Encontraron más de 30 estados que nunca ejecutaron un proceso de validación de los algoritmos en uso dentro de su estado, lo que sugiere que la mayoría de las veces estos programas se usan sin la calibración adecuada.

El problema con COMPAS

En los estados que utilizan COMPAS, se les pide a los acusados que completen un cuestionario COMPAS cuando ingresan al sistema de justicia penal. Sus respuestas son analizadas por el software propietario COMPAS, que genera puntuaciones predictivas como “riesgo de reincidencia” y “riesgo de reincidencia violenta”.

Estas puntuaciones, calculadas por el algoritmo en una escala de uno a 10, se muestran en un gráfico de barras en el que 10 representa a los que tienen más probabilidades de reincidir. Los jueces reciben estos cuadros antes de dictar sentencia para ayudar con las determinaciones. COMPAS no es el único elemento que un juez debe considerar al determinar la duración y la severidad de la sentencia. Los antecedentes penales anteriores, las circunstancias del delito (si se cometieron daños corporales o si el delincuente estaba bajo estrés personal) y si el delincuente muestra o no remordimiento son algunos ejemplos de factores atenuantes que afectan la sentencia. Sin embargo, no hay forma de saber cuánto peso asigna un juez a la información recibida del software de evaluación de riesgos.

Tomado por sí solo, el gráfico COMPAS parece un poco de información razonable, incluso útil; pero la realidad es muy diferente. ProPublica realizó un análisis del algoritmo COMPAS y descubrió algunas preocupaciones válidas sobre la confiabilidad y el sesgo del software.

En un análisis de más de 10.000

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd