Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1857

Incidentes Asociados

Incidente 2742 Reportes
Virginia Courts’ Algorithmic Recidivism Risk Assessment Failed to Lower Incarceration Rates

Loading...
Evaluación algorítmica de riesgos en manos de humanos
papers.ssrn.com · 2019

Evaluamos los impactos de la adopción de evaluaciones de riesgo algorítmicas como una ayuda para la discreción judicial en la sentencia por delitos graves. Encontramos que las decisiones de los jueces están influenciadas por el puntaje de riesgo, lo que lleva a sentencias más largas para los acusados con puntajes más altos y sentencias más cortas para aquellos con puntajes más bajos. Sin embargo, a pesar de las instrucciones explícitas de que se suponía que la evaluación de riesgos reduciría la población carcelaria, no hubo una reducción neta en el encarcelamiento. Tampoco detectamos ningún beneficio de seguridad pública de su uso. Documentamos disparidades raciales tanto en la puntuación de riesgo como en su aplicación: es más probable que los jueces sigan las recomendaciones de clemencia asociadas con la puntuación de riesgo para los acusados blancos que para los negros. Sin embargo, las sentencias en Virginia ya eran bastante dispares racialmente y el uso de la evaluación de riesgos no exacerbó ni mejoró las diferencias. Sin embargo, la evaluación de riesgos aumentó las sentencias relativas para los jóvenes acusados. Exploramos varias teorías sobre la interacción hombre-máquina para comprender mejor nuestros resultados: objetivos en conflicto, aprendizaje a través del uso, adoptantes versus no adoptantes y uso ineficaz de la información.

Palabras clave: evaluación de riesgos, algoritmos, sentencia

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd