Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 716

Incidentes Asociados

Incidente 4021 Reportes
COMPAS Algorithm Reportedly Performs Poorly in Crime Recidivism Prediction

Loading...
¿Son los programas mejores que las personas para predecir la reincidencia?
economist.com · 2018

EN AMÉRICA, las computadoras se han utilizado para ayudar en las decisiones sobre fianzas y sentencias durante muchos años. Sus defensores argumentan que la lógica rigurosa de un algoritmo, entrenado con una gran cantidad de datos, puede emitir juicios sobre si un convicto reincidirá que no están empañados por prejuicios humanos. Dos investigadores han puesto a prueba uno de estos programas, COMPAS. Según su estudio, publicado en Science Advances, COMPAS no lo hizo ni mejor ni peor que las personas sin experiencia especial.

Julia Dressel y Hany Farid de Dartmouth College en New Hampshire seleccionaron 1000 acusados al azar de una base de datos de 7214 personas arrestadas en el condado de Broward, Florida entre 2013 y 2014, que habían estado sujetas al análisis COMPAS. Dividieron su muestra en 20 grupos de 50. Para cada acusado crearon una breve descripción que incluía el sexo, la edad y las condenas anteriores, así como el cargo penal al que se enfrentaba.

Reciba nuestro boletín diario Actualice su bandeja de entrada y obtenga nuestro Despacho diario y Selecciones del editor.

Luego recurrieron a Amazon Mechanical Turk, un sitio web que recluta voluntarios para realizar pequeñas tareas a cambio de dinero en efectivo. Pidieron a 400 de estos voluntarios que predijeran, sobre la base de las descripciones, si un acusado en particular sería arrestado por otro delito dentro de los dos años posteriores a su comparecencia (excluyendo cualquier tiempo de cárcel que pudiera haber cumplido), un hecho que ahora se conoce debido al pasaje de tiempo. Cada voluntario vio solo un grupo de 50 personas, y cada grupo fue visto por 20 voluntarios. Cuando la Sra. Dressel y el Dr. Farid analizaron los números, descubrieron que los voluntarios predijeron correctamente si alguien había sido arrestado de nuevo el 62,1 % de las veces. Cuando se agruparon las sentencias de los 20 que examinaron el caso de un acusado en particular, esto aumentó al 67%. COMPAS había obtenido una puntuación del 65,2 %, esencialmente la misma que la de los voluntarios humanos.

Para ver si la mención de la raza de una persona (un tema espinoso en el sistema de justicia penal estadounidense) afectaría tales juicios, la Sra. Dressel y el Dr. Farid reclutaron a 400 voluntarios más y repitieron su experimento, esta vez agregando la raza de cada acusado a la descripción. No hizo ninguna diferencia. Los participantes identificaron a los arrestados nuevamente con un 66,5 % de precisión.

Todo esto sugiere que COMPAS, aunque no es perfecto, es de hecho tan bueno como el sentido común humano para analizar hechos pertinentes para predecir quién volverá a llamar la atención de la ley y quién no. Eso es alentador. Si es un buen valor, sin embargo, es una pregunta diferente, ya que la Sra. Dressel y el Dr. Farid han ideado un algoritmo propio que fue tan preciso como COMPAS en la predicción de nuevas detenciones cuando se alimentaron los datos del condado de Broward, pero que involucra solo dos entradas: la la edad del acusado y el número de condenas anteriores.

Como señala Tim Brennan, científico jefe de Equivant, que fabrica COMPAS, el algoritmo de los investigadores, que ha sido entrenado y probado con datos de un mismo lugar, podría resultar menos preciso si se enfrenta a registros de otros lugares. Pero mientras el algoritmo detrás de COMPAS siga siendo propietario, no es posible una comparación detallada de las virtudes de los dos.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd