Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 703

Incidentes Asociados

Incidente 4021 Reportes
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
Un programa informático común predice la reincidencia tan mal como los humanos
inverse.com · 2018

Al igual que un chef profesional o un cirujano cardíaco, un algoritmo de aprendizaje automático es tan bueno como la capacitación que recibe. Y a medida que los algoritmos toman cada vez más las riendas y toman decisiones por los humanos, descubrimos que muchos de ellos no recibieron la mejor educación, ya que imitan los sesgos basados en la raza humana y el género e incluso crean nuevos problemas.

Por estas razones, es particularmente preocupante que varios estados, incluidos California, Nueva York y Wisconsin, utilicen algoritmos para predecir qué personas volverán a cometer delitos después de haber sido encarceladas. Peor aún, ni siquiera parece funcionar.

En un artículo publicado el miércoles en la revista Science Advances, un par de informáticos del Dartmouth College descubrieron que un programa informático ampliamente utilizado para predecir la reincidencia no es más preciso que los civiles sin formación. Este programa, llamado Perfiles de gestión de delincuentes correccionales para sanciones alternativas, analiza 137 factores diferentes para determinar la probabilidad de que una persona cometa otro delito después de su liberación. COMPAS considera factores como el uso de sustancias, el aislamiento social y otros elementos que los criminólogos teorizan que pueden conducir a la reincidencia, clasificando a las personas como de alto, medio o bajo riesgo.

Los algoritmos de aprendizaje automático que miden el riesgo de reincidencia de las personas encarceladas tienen fallas profundas, dicen los investigadores.

Y claro, la evaluación de riesgos suena genial. ¿Por qué no tener más datos para ayudar a los tribunales a determinar quién es un mayor riesgo? Pero lo que encontraron los científicos informáticos de Dartmouth, Julia Dressel y Hany Farid, fue que las personas no capacitadas juzgaron correctamente el riesgo de reincidencia con casi la misma precisión que COMPAS, lo que sugiere que el supuesto poder del algoritmo no está realmente allí.

En un ensayo que incluyó solo una fracción de la información utilizada por COMPAS (siete factores en lugar de 137 y excluyendo la raza), un grupo de voluntarios humanos en Internet, presumiblemente sin capacitación en evaluación de riesgos penales, evaluó informes de casos. Estimaron correctamente la reincidencia de una persona con un 67 por ciento de precisión, en comparación con el 65 por ciento de precisión de COMPAS.

Tómese un momento para asimilar eso. Las personas no capacitadas en la web fueron un poco mejores para predecir si una persona volvería a la cárcel que la herramienta que está literalmente diseñada para predecir si una persona volvería a la cárcel. Y se pone peor. Una vez que agrega la raza de un acusado, las tasas de falsos positivos y falsos negativos del voluntario estaban dentro de unos pocos puntos porcentuales de las de COMPAS. Entonces, COMPAS no solo no es tan bueno para predecir la reincidencia, sino que es tan propenso a los prejuicios raciales como lo son los humanos. Hasta aquí la fría lógica de las computadoras.

Los investigadores encontraron que los humanos eran casi tan buenos como el algoritmo para predecir las tasas de reincidencia. También encontraron que los humanos y el algoritmo tenían tasas similares de falsos positivos y falsos negativos cuando se tiene en cuenta la raza.

Luego, los investigadores crearon un modelo lineal que coincidía con la tasa de predicción de COMPAS con solo dos factores: la edad y la cantidad de condenas anteriores. Para que quede claro, esta predicción también sería injusta, pero demuestra cuán defectuoso es COMPAS.

Y aunque esta investigación es nueva, las conclusiones importantes que defiende no lo son. En una investigación de 2016, los reporteros de ProPublica descubrieron que COMPAS no solo no es confiable, sino que en realidad tiene un sesgo sistemático contra los afroamericanos, calificando constantemente a las personas negras como de mayor riesgo que a los blancos que cometieron delitos más graves. Con suerte, esta nueva investigación ayudará a allanar el camino para procesos de evaluación de riesgos más justos en el sistema de justicia penal.

El hecho de que COMPAS sea inútil en el mejor de los casos y profundamente sesgado en el peor sugiere que las evaluaciones de riesgo basadas en computadora podrían estar profundizando las injusticias que se supone que el sistema de justicia debe abordar. Dado que los puntajes de evaluación de riesgos se pueden aplicar en cualquier paso del proceso de justicia penal, incluso al establecer la fianza de una persona, determinar si se le otorga la libertad condicional y, en algunos estados, incluso para determinar la sentencia de una persona, esta investigación sugiere una necesidad imperiosa de reexaminar el uso de COMPAS y otros programas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd