Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 36

Incidentes Asociados

Incidente 1115 Reportes
Northpointe Risk Models

Loading...
El análisis de ProPublica encuentra sesgo en el sistema de puntuación de riesgo de justicia penal COMPAS
privacyinternational.org · 2016

Los programas informáticos que realizan evaluaciones de riesgo de los sospechosos de delitos son cada vez más comunes en los tribunales estadounidenses y se utilizan en todas las etapas de los sistemas de justicia penal para determinar quién puede ser puesto en libertad o libertad condicional, y el monto de la fianza que deben pagar. Para 2016, los resultados de estas evaluaciones se entregaron a los jueces durante la sentencia penal y se propuso en el Congreso un proyecto de ley de reforma de sentencias para ordenar el uso de dichas evaluaciones en las prisiones federales. En un estudio de las puntuaciones de riesgo asignadas a más de 7000 personas en el condado de Broward en Florida en 2013 y 2014, ProPublica descubrió que solo el 20 % de las personas que el sistema predijo que cometerían delitos violentos lo habían hecho. Para la gama completa de delitos, incluidos los delitos menores, el 61 % de los que se predijo que reincidirían fueron arrestados por delitos posteriores durante los dos años siguientes.

ProPublic también encontró disparidades raciales significativas. Aunque el algoritmo cometió errores aproximadamente a la misma tasa para los acusados blancos y negros, etiquetó incorrectamente a los acusados negros como propensos a cometer más delitos al doble de las tasas que los acusados blancos. Por el contrario, los acusados blancos fueron mal etiquetados como de bajo riesgo con más frecuencia que los acusados negros. Northpointe, la empresa que produjo el sistema, conocida como COMPAS, cuestionó el análisis de ProPublic pero se negó a compartir sus cálculos, que según la empresa eran de su propiedad. Sin embargo, reveló que los conceptos básicos de su fórmula incluían factores como los niveles de educación y la situación laboral entre las 137 preguntas que los acusados respondían o que se extraían de los antecedentes penales. Estas herramientas se implementaron en muchas áreas antes de que se evaluaran rigurosamente, y los acusados rara vez pueden averiguar la base de los puntajes que se les asignan.

https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing

Guión: Julia Angwin, Jeff Larson, Surya Mattu, Lauren Kirchner

Publicación: ProPublica

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd