Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 711

Incidentes Asociados

Incidente 4021 Reportes
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
El software de la corte puede no ser más preciso que los encuestadores web para predecir el riesgo criminal
sciencedaily.com · 2018

Una herramienta de software de computadora ampliamente utilizada puede no ser más precisa o justa para predecir el comportamiento delictivo repetido que las personas sin experiencia en justicia penal, según un estudio de Dartmouth College.

El análisis de Dartmouth mostró que los no expertos que respondieron a una encuesta en línea se desempeñaron igualmente bien con el sistema de software de gestión de delincuentes correccionales para sanciones alternativas (COMPAS) utilizado por los tribunales para ayudar a determinar el riesgo de reincidencia.

El documento también demuestra que aunque COMPAS usa más de cien piezas de información para hacer una predicción, se puede lograr el mismo nivel de precisión con solo dos variables: la edad del acusado y el número de condenas anteriores.

Según el trabajo de investigación, COMPAS se ha utilizado para evaluar a más de un millón de delincuentes desde que se desarrolló en 1998, con su componente de predicción de reincidencia en uso desde 2000.

El análisis, publicado en la revista Science Advances, fue realizado por el equipo de investigación de estudiantes y profesores de Julia Dressel y Hany Farid.

"Es preocupante que los trabajadores de Internet no capacitados puedan funcionar tan bien como un programa de computadora utilizado para tomar decisiones que alteran la vida de los acusados criminales", dijo Farid, profesor de informática Albert Bradley 1915 Third Century en Dartmouth College. "El uso de dicho software puede no estar haciendo nada para ayudar a las personas a las que los algoritmos de caja negra podrían negarles una segunda oportunidad".

Según el documento, las herramientas de software se utilizan en las decisiones previas al juicio, la libertad condicional y la sentencia para predecir el comportamiento delictivo, incluido quién es probable que no se presente en una audiencia judicial y quién es probable que reincida en algún momento en el futuro. Los partidarios de tales sistemas argumentan que los grandes datos y el aprendizaje automático avanzado hacen que estos análisis sean más precisos y menos sesgados que las predicciones hechas por humanos.

"Las afirmaciones de que las herramientas de datos secretas y aparentemente sofisticadas son más precisas y justas que los humanos simplemente no están respaldadas por los hallazgos de nuestra investigación", dijo Dressel, quien realizó la investigación como parte de su tesis de licenciatura en informática en Dartmouth.

El trabajo de investigación compara el software comercial COMPAS con los trabajadores contratados a través del mercado de colaboración colectiva en línea Mechanical Turk de Amazon para ver qué enfoque es más preciso y justo al juzgar la posibilidad de reincidencia. A los efectos del estudio, la reincidencia se definió como la comisión de un delito menor o mayor dentro de los dos años posteriores al último arresto del acusado.

Grupos de trabajadores de Internet vieron breves descripciones que incluían el sexo, la edad y los antecedentes penales del acusado. Luego, los resultados humanos se compararon con los resultados del sistema COMPAS que utiliza 137 variables para cada individuo.

La precisión general se basó en la tasa a la que se predijo correctamente que un acusado reincidiría o no. La investigación también informó sobre falsos positivos, cuando se predice que un acusado reincidirá, pero no lo hace, y falsos negativos, cuando se predice que un acusado no reincidirá, pero lo hace.

Con mucha menos información que COMPAS (siete funciones en comparación con 137), cuando los resultados se agruparon para determinar la "sabiduría de la multitud", los humanos sin presunta experiencia en justicia penal fueron precisos en el 67 por ciento de los casos presentados, estadísticamente lo mismo. como el 65,2 por ciento de precisión de COMPAS. Los participantes del estudio y COMPAS estuvieron de acuerdo en el 69,2 por ciento de los 1000 acusados al predecir quién repetiría sus delitos.

Según el estudio, la cuestión de la predicción precisa de la reincidencia no se limita a COMPAS. Una revisión separada citada en el estudio encontró que ocho de los nueve programas de software fallaron en hacer predicciones precisas.

"Debe cuestionarse todo el uso de instrumentos de predicción de reincidencia en los tribunales", dijo Dressel. "Junto con el trabajo previo sobre la imparcialidad de los algoritmos de justicia penal, estos resultados combinados arrojan dudas significativas sobre todo el esfuerzo de predecir la reincidencia".

A diferencia de otros análisis que se centran en si los algoritmos tienen sesgos raciales, el estudio de Dartmouth considera la cuestión más fundamental de si el algoritmo COMPAS es mejor que los humanos no capacitados para predecir la reincidencia de manera precisa y justa.

Sin embargo, cuando se consideró la raza, la investigación encontró que los resultados tanto de los encuestados humanos como del software mostraron disparidades significativas entre cómo se juzga a los acusados blancos y negros.

Según el periódico, es valioso preguntarse si dejaríamos estas decisiones en manos de personas no capacitadas que respondan una encuesta en línea porque, al final, "los resultados de estos dos enfoques parecen ser indistinguibles".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd