Incidentes Asociados

Al igual que una versión más torcida de la prueba Voight-Kampff de Blade Runner, un nuevo artículo de aprendizaje automático de un par de investigadores chinos ha profundizado en la controvertida tarea de dejar que una computadora decida sobre su inocencia. ¿Puede una computadora saber si eres un criminal solo por tu cara?
En su artículo 'Automated Inference on Criminality using Face Images', publicado en el servidor de preimpresión arXiv, Xiaolin Wu y Xi Zhang de la Universidad Shanghai Jiao Tong de China investigan si una computadora puede detectar si un humano podría ser un criminal convicto simplemente analizando sus rasgos faciales. Los dos dicen que sus pruebas fueron exitosas y que incluso encontraron una nueva ley que rige "la normalidad para las caras de los no delincuentes".
ANUNCIO PUBLICITARIO
Describieron la idea de algoritmos que pueden igualar y superar el rendimiento de un ser humano en el reconocimiento facial para inferir la criminalidad como "irresistible". Pero como señalan varios usuarios de Twitter y comentaristas en Hacker News, al introducir sesgos en la inteligencia artificial y los algoritmos de aprendizaje automático, la computadora podría actuar sobre esos sesgos. Sin embargo, los investigadores sostienen que los conjuntos de datos fueron controlados por raza, género, edad y expresiones faciales.
Imagínese esto con drones, todas las cámaras de circuito cerrado de televisión de cada ciudad, los ojos de los coches autónomos, en todas partes hay una cámara... Tim Maughan 18 de noviembre de 2016
Las imágenes utilizadas en la investigación fueron fotografías de identificación estándar de hombres chinos de entre 18 y 55 años, sin vello facial, cicatrices u otras marcas. Wu y Zhang enfatizan que las fotos de identificación utilizadas no eran fotos policiales y que de 730 delincuentes, 235 cometieron delitos violentos "incluidos asesinato, violación, agresión, secuestro y robo".
Los dos afirman que eliminaron deliberadamente "cualquier factor humano sutil" del proceso de evaluación. Mientras los conjuntos de datos estén finamente controlados, ¿podría erradicarse por completo el sesgo humano? Wu le dijo a Motherboard que no intervino el sesgo humano. "De hecho, obtuvimos nuestro primer lote de resultados hace un año. Pasamos por una verificación muy rigurosa de nuestros conjuntos de datos y también realizamos muchas pruebas en busca de contraejemplos, pero no pudimos encontrar ninguno", dijo Wu.
Así es como funcionó: Xiaolin y Xi introdujeron en un algoritmo de aprendizaje automático imágenes faciales de 1856 personas, de las cuales la mitad eran delincuentes convictos, y luego observaron si alguno de sus cuatro clasificadores, cada uno con un método diferente de análisis de rasgos faciales, podía inferir criminalidad. .
ANUNCIO PUBLICITARIO
Descubrieron que los cuatro clasificadores diferentes fueron en su mayoría exitosos, y que los rostros de los delincuentes y los que no fueron condenados por delitos difieren en formas clave que son perceptibles para un programa de computadora. Además, "la variación entre los rostros criminales es significativamente mayor que la de los rostros no criminales", escriben Xiaolin y Xi.
"Además, encontramos algunas características estructurales discriminatorias para predecir la criminalidad, como la curvatura de los labios".
"Los cuatro clasificadores funcionan consistentemente bien y producen evidencia de la validez de la inferencia automática inducida por el rostro sobre la criminalidad, a pesar de la controversia histórica que rodea el tema", escriben los investigadores. "Además, encontramos algunas características estructurales discriminatorias para predecir la criminalidad, como la curvatura de los labios, la distancia de la esquina interna del ojo y el llamado ángulo de la nariz y la boca". El mejor clasificador, conocido como Red Neural Convolucional, logró una precisión del 89,51 por ciento en las pruebas.
"Mediante extensos experimentos y vigorosas validaciones cruzadas", concluyen los investigadores, "hemos demostrado que a través del aprendizaje automático supervisado, los clasificadores de rostros basados en datos pueden hacer inferencias confiables sobre la criminalidad".
Si bien Xiaolin y Xi admiten en su artículo que "no están calificados para discutir o debatir sobre estereotipos sociales", el problema es que el aprendizaje automático es experto en detectar sesgos humanos en conjuntos de datos y actuar sobre esos sesgos, como lo demuestra múltiples incidentes recientes. La pareja admite que están en terreno inestable. "Hemos sido acusados en Internet de ser socialmente irresponsables", dijo Wu.
ANUNCIO PUBLICITARIO
Este documento es la razón exacta por la que debemos pensar en la ética en la IA. Stephen MayhewNoviembre 17, 2016
En el documento, continúan citando al filósofo Aristóteles: "Es posible inferir el carácter a partir de las características", pero eso debe dejarse en manos de los psicólogos humanos, no de las máquinas, ¿no? Una de las principales preocupaciones en el futuro es la de los falsos positivos, es decir, identificar a personas inocentes como culpables, especialmente si este programa se usa en cualquier tipo de entorno de justicia penal del mundo real. Los investigadores dijeron que los algoritmos arrojaron algunos falsos positivos (identificando a los no criminales como criminales) y falsos negativos (identificando a los criminales como no criminales), que aumentaron cuando las caras se etiquetaron al azar para las pruebas de control.
Los críticos en línea han criticado el periódico. "Pensé que esto era una broma cuando leí el resumen, pero parece ser un documento genuino", dijo un usuario en Hacker News. "Estoy de acuerdo en que es un área de estudio completamente válida... pero para hacerlo se necesitan expertos en criminología, fisiología y aprendizaje automático, no solo un par de personas que puedan seguir las instrucciones de Keras sobre cómo usar una red neuronal para la clasificación".
Leer más: A.I. respaldada por Google Tiene como objetivo ayudar a los periodistas a escribir mejores noticias
Otros cuestionaron la validez del artículo y señalaron que uno de los investigadores figura en la lista con una cuenta de Gmail. "En primer lugar, no creo que esto sea una sátira. Admito que el uso de una cuenta de gmail por parte de un investigador de una universidad china es aparentemente sospechoso", planteó otro lector de Hackers News.
Sin embargo, Wu tenía una respuesta para esto. "Algunos cuestionaron por qué usé la dirección de Gmail como miembro de la facultad en China. De hecho, también soy profesor en la Universidad McMaster, Canadá", le dijo a Motherboard.