Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 40: COMPAS Algorithm Performs Poorly in Crime Recidivism Prediction

Descripción: Correctional Offender Management Profiling for Alternative Sanctions (COMPAS), a recidivism risk-assessment algorithmic tool used in the judicial system to assess likelihood of defendants' recidivism, is found to be less accurate than random untrained human evaluators.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Equivant, perjudicó a Accused People.

Estadísticas de incidentes

ID
40
Cantidad de informes
22
Fecha del Incidente
2016-05-23
Editores
Sean McGregor
Applied Taxonomies
CSETv0, CSETv1, GMF, MIT

Clasificaciones de la Taxonomía CSETv0

Detalles de la Taxonomía

Problem Nature

Indicates which, if any, of the following types of AI failure describe the incident: "Specification," i.e. the system's behavior did not align with the true intentions of its designer, operator, etc; "Robustness," i.e. the system operated unsafely because of features or changes in its environment, or in the inputs the system received; "Assurance," i.e. the system could not be adequately monitored or controlled during operation.
 

Unknown/unclear

Physical System

Where relevant, indicates whether the AI system(s) was embedded into or tightly associated with specific types of hardware.
 

Software only

Level of Autonomy

The degree to which the AI system(s) functions independently from human intervention. "High" means there is no human involved in the system action execution; "Medium" means the system generates a decision and a human oversees the resulting action; "low" means the system generates decision-support output and a human makes a decision and executes an action.
 

Medium

Nature of End User

"Expert" if users with special training or technical expertise were the ones meant to benefit from the AI system(s)’ operation; "Amateur" if the AI systems were primarily meant to benefit the general public or untrained users.
 

Amateur

Public Sector Deployment

"Yes" if the AI system(s) involved in the accident were being used by the public sector or for the administration of public goods (for example, public transportation). "No" if the system(s) were being used in the private sector or for commercial purposes (for example, a ride-sharing company), on the other.
 

Yes

Data Inputs

A brief description of the data that the AI system(s) used or were trained on.
 

Questionnaire consisting of 137 factors like age, prior convictions, criminal records

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

40

AI Tangible Harm Level Notes

Notes about the AI tangible harm level assessment
 

CSET considers wrongful detention, wrongful imprisonment, and wrongful differential/disproportionate imprisonment amounts to be tangible harm, because of the loss of physical freedom and autonomy.

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+1
Cómo analizamos el algoritmo de reincidencia COMPAS
+1
Inspección de algoritmos para sesgo
+12
ProPublica se equivoca al cargar el sesgo racial en un algoritmo
Sentencia por números: la aterradora verdad detrás de los algoritmos de evaluación de riesgos¿Se puede eliminar el sesgo racial de los algoritmos de justicia penal?AI está condenando a los criminales y determinando el tiempo de cárcel, pero ¿es justo?Un estudio encuentra que el algoritmo no es mejor que las personas aleatorias para predecir la reincidencia+1
Amicus Brief en New Jersey v. Pickett
Cómo analizamos el algoritmo de reincidencia COMPAS

Cómo analizamos el algoritmo de reincidencia COMPAS

propublica.org

Inspección de algoritmos para sesgo

Inspección de algoritmos para sesgo

technologyreview.com

Cuando un programa de computadora te mantiene en la cárcel

Cuando un programa de computadora te mantiene en la cárcel

nytimes.com

ProPublica se equivoca al cargar el sesgo racial en un algoritmo

ProPublica se equivoca al cargar el sesgo racial en un algoritmo

acsh.org

Mechanical Turkers superó a COMPAS, un importante algoritmo judicial

Mechanical Turkers superó a COMPAS, un importante algoritmo judicial

theverge.com

Un algoritmo popular no es mejor para predecir crímenes que personas aleatorias

Un algoritmo popular no es mejor para predecir crímenes que personas aleatorias

theatlantic.com

¿Son los programas mejores que las personas para predecir la reincidencia?

¿Son los programas mejores que las personas para predecir la reincidencia?

economist.com

La precisión, la equidad y los límites de la predicción de la reincidencia

La precisión, la equidad y los límites de la predicción de la reincidencia

science.org

El software "no es más preciso que los humanos no capacitados" para juzgar el riesgo de reincidencia

El software "no es más preciso que los humanos no capacitados" para juzgar el riesgo de reincidencia

theguardian.com

Los algoritmos de fianza son tan precisos como personas aleatorias que realizan una encuesta en línea

Los algoritmos de fianza son tan precisos como personas aleatorias que realizan una encuesta en línea

motherboard.vice.com

El software de la corte puede no ser más preciso que los encuestadores web para predecir el riesgo criminal

El software de la corte puede no ser más preciso que los encuestadores web para predecir el riesgo criminal

sciencedaily.com

Los algoritmos de predicción del crimen pueden no funcionar mucho mejor que los humanos no entrenados

Los algoritmos de predicción del crimen pueden no funcionar mucho mejor que los humanos no entrenados

wired.com

Un programa informático común predice la reincidencia tan mal como los humanos

Un programa informático común predice la reincidencia tan mal como los humanos

inverse.com

Los algoritmos no son mejores para predecir reincidentes que los humanos sin experiencia

Los algoritmos no son mejores para predecir reincidentes que los humanos sin experiencia

futurism.com

Un estudio encuentra que el algoritmo de predicción del crimen no es más inteligente que los encuestadores en línea

Un estudio encuentra que el algoritmo de predicción del crimen no es más inteligente que los encuestadores en línea

gizmodo.com.au

Algoritmo de sentencia penal no más preciso que personas aleatorias en Internet

Algoritmo de sentencia penal no más preciso que personas aleatorias en Internet

pbs.org

Sentencia por números: la aterradora verdad detrás de los algoritmos de evaluación de riesgos

Sentencia por números: la aterradora verdad detrás de los algoritmos de evaluación de riesgos

digitalethics.org

¿Se puede eliminar el sesgo racial de los algoritmos de justicia penal?

¿Se puede eliminar el sesgo racial de los algoritmos de justicia penal?

psmag.com

AI está condenando a los criminales y determinando el tiempo de cárcel, pero ¿es justo?

AI está condenando a los criminales y determinando el tiempo de cárcel, pero ¿es justo?

weforum.org

Un estudio encuentra que el algoritmo no es mejor que las personas aleatorias para predecir la reincidencia

Un estudio encuentra que el algoritmo no es mejor que las personas aleatorias para predecir la reincidencia

privacyinternational.org

Amicus Brief en New Jersey v. Pickett

Amicus Brief en New Jersey v. Pickett

upturn.org

Inteligencia artificial, racismo algorítmico y el sistema de justicia penal canadiense

Inteligencia artificial, racismo algorítmico y el sistema de justicia penal canadiense

slaw.ca

Cómo analizamos el algoritmo de reincidencia COMPAS
propublica.org · 2016
Traducido por IA

← Leer la historia

En todo el país, los jueces y los oficiales de libertad condicional utilizan cada vez más algoritmos para evaluar la probabilidad de que un acusado de un delito se convierta en reincidente, un término que se usa para desc…

Inspección de algoritmos para sesgo
technologyreview.com · 2017
Traducido por IA

Fue una historia impactante. “Machine Bias”, decía el titular, y el adelanto proclamaba: “Hay software utilizado en todo el país para predecir futuros delincuentes. Y está sesgado contra los negros”.

ProPublica, una organización de noticias…

Cuando un programa de computadora te mantiene en la cárcel
nytimes.com · 2017
Traducido por IA

El sistema de justicia penal se está automatizando. En cada etapa, desde la vigilancia y las investigaciones hasta la fianza, las pruebas, la sentencia y la libertad condicional, los sistemas informáticos desempeñan un papel. La inteligenci…

ProPublica se equivoca al cargar el sesgo racial en un algoritmo
acsh.org · 2018
Traducido por IA

Predecir el futuro no es solo la procedencia de los adivinos o los expertos de los medios. Los algoritmos predictivos, basados en amplios conjuntos de datos y estadísticas, han superado las operaciones mayoristas y minoristas como sabe cual…

Mechanical Turkers superó a COMPAS, un importante algoritmo judicial
theverge.com · 2018
Traducido por IA

Nuestros algoritmos de predicción de delitos más sofisticados pueden no ser tan buenos como pensábamos. Un estudio publicado hoy en Science Advances analiza el popular algoritmo COMPAS, utilizado para evaluar la probabilidad de que un acusa…

Un algoritmo popular no es mejor para predecir crímenes que personas aleatorias
theatlantic.com · 2018
Traducido por IA

De hecho, se justifica la precaución, según Julia Dressel y Hany Farid de Dartmouth College. En un nuevo estudio, demostraron que COMPAS no es mejor para predecir el riesgo de reincidencia de un individuo que los voluntarios reclutados al a…

¿Son los programas mejores que las personas para predecir la reincidencia?
economist.com · 2018
Traducido por IA

EN AMÉRICA, las computadoras se han utilizado para ayudar en las decisiones sobre fianzas y sentencias durante muchos años. Sus defensores argumentan que la lógica rigurosa de un algoritmo, entrenado con una gran cantidad de datos, puede em…

La precisión, la equidad y los límites de la predicción de la reincidencia
science.org · 2018
Traducido por IA

Los algoritmos para predecir la reincidencia se utilizan comúnmente para evaluar la probabilidad de que un acusado de un delito cometa un delito. Estas predicciones se utilizan en decisiones previas al juicio, libertad condicional y sentenc…

El software "no es más preciso que los humanos no capacitados" para juzgar el riesgo de reincidencia
theguardian.com · 2018
Traducido por IA

El programa utilizado para evaluar a más de un millón de acusados en EE. UU. puede no ser lo suficientemente preciso para tomar decisiones que podrían cambiar la vida, dicen los expertos

La credibilidad de un programa de computadora utiliza…

Los algoritmos de fianza son tan precisos como personas aleatorias que realizan una encuesta en línea
motherboard.vice.com · 2018
Traducido por IA

Los algoritmos que evalúan la probabilidad de que las personas vuelvan a delinquir como parte del proceso de fijación de fianzas en casos penales son, para ser sinceros, realmente aterradores.

No sabemos mucho acerca de cómo funcionan, las …

El software de la corte puede no ser más preciso que los encuestadores web para predecir el riesgo criminal
sciencedaily.com · 2018
Traducido por IA

Una herramienta de software de computadora ampliamente utilizada puede no ser más precisa o justa para predecir el comportamiento delictivo repetido que las personas sin experiencia en justicia penal, según un estudio de Dartmouth College.

…
Los algoritmos de predicción del crimen pueden no funcionar mucho mejor que los humanos no entrenados
wired.com · 2018
Traducido por IA

El sistema de justicia penal estadounidense no podría ser menos justo. En todo el país, alrededor de 1,5 millones de personas están encerradas en prisiones estatales y federales. Más de 600.000 personas, la gran mayoría de las cuales aún no…

Un programa informático común predice la reincidencia tan mal como los humanos
inverse.com · 2018
Traducido por IA

Al igual que un chef profesional o un cirujano cardíaco, un algoritmo de aprendizaje automático es tan bueno como la capacitación que recibe. Y a medida que los algoritmos toman cada vez más las riendas y toman decisiones por los humanos, d…

Los algoritmos no son mejores para predecir reincidentes que los humanos sin experiencia
futurism.com · 2018
Traducido por IA

Predicción de la reincidencia

La reincidencia es la probabilidad de que una persona condenada por un delito vuelva a delinquir. Actualmente, esta tasa está determinada por algoritmos predictivos. El resultado puede afectar todo, desde las d…

Un estudio encuentra que el algoritmo de predicción del crimen no es más inteligente que los encuestadores en línea
gizmodo.com.au · 2018
Traducido por IA

En un estudio publicado el miércoles, un par de investigadores de Dartmouth descubrieron que un popular algoritmo de evaluación de riesgos no era mejor para predecir la probabilidad de reincidencia de un delincuente que una encuesta en Inte…

Algoritmo de sentencia penal no más preciso que personas aleatorias en Internet
pbs.org · 2018
Traducido por IA

Reciba correos electrónicos sobre los próximos programas de NOVA y contenido relacionado, así como informes destacados sobre eventos actuales a través de una lente científica. Dirección de correo electrónico Código postal Suscríbete

Un algo…

Sentencia por números: la aterradora verdad detrás de los algoritmos de evaluación de riesgos
digitalethics.org · 2018
Traducido por IA

Aunque las tasas de criminalidad han disminuido constantemente desde la década de 1990, las tasas de reincidencia siguen siendo un factor tanto en las áreas de seguridad pública como en el manejo de prisioneros. El Instituto Nacional de Jus…

¿Se puede eliminar el sesgo racial de los algoritmos de justicia penal?
psmag.com · 2018
Traducido por IA

(Foto: Joe Raedle/Getty Images)

Docenas de personas llenaron un tribunal de Filadelfia el 6 de junio para expresar sus objeciones a un algoritmo de justicia penal propuesto. El algoritmo, desarrollado por la Comisión de Sentencias de Pensil…

AI está condenando a los criminales y determinando el tiempo de cárcel, pero ¿es justo?
weforum.org · 2018
Traducido por IA

Cuando Netflix se equivoca al recomendar una película, probablemente pienses que no es gran cosa. Del mismo modo, cuando tus zapatillas favoritas no aparecen en la lista de productos recomendados de Amazon, probablemente no sea el fin del m…

Un estudio encuentra que el algoritmo no es mejor que las personas aleatorias para predecir la reincidencia
privacyinternational.org · 2019
Traducido por IA

En un estudio de COMPAS, una herramienta algorítmica utilizada en el sistema de justicia penal de EE. UU., los investigadores de Dartmouth College, Julia Dressel y Hany Farid, descubrieron que el algoritmo no funcionaba mejor que los volunt…

Amicus Brief en New Jersey v. Pickett
upturn.org · 2020
Traducido por IA

DECLARACIÓN PRELIMINAR Y DECLARACIÓN DE INTERÉS La revisión independiente y contradictoria del software utilizado en el sistema legal penal es necesaria para proteger a los tribunales de evidencia poco confiable y para garantizar que la int…

Inteligencia artificial, racismo algorítmico y el sistema de justicia penal canadiense
slaw.ca · 2020
Traducido por IA

La evaluación del riesgo de reincidencia es el proceso de determinar la probabilidad de que una persona acusada, condenada o encarcelada reincida. El proceso tiene por objeto coadyuvar en la determinación de la debida limitación a la libert…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 informes
Sexist and Racist Google Adsense Advertisements

Discrimination in Online Ad Delivery

Jan 2013 · 27 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Northpointe Risk Models

Machine Bias - ProPublica

May 2016 · 15 informes
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 informes
Sexist and Racist Google Adsense Advertisements

Discrimination in Online Ad Delivery

Jan 2013 · 27 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df