Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2339

Loading...
Opinión | La historia racista detrás del reconocimiento facial
nytimes.com · 2019

Los investigadores supieron recientemente que el Servicio de Inmigración y Control de Aduanas [usó el reconocimiento facial](https://www.nytimes.com/2019/07/07/us/politics/ice-drivers-licenses-facial-recognition.html?smid=nytcore- ios-share) en millones de fotografías de licencias de conducir sin el conocimiento de los titulares de las licencias, la última revelación sobre los gobiernos que emplean la tecnología en formas que amenazan las libertades civiles.

Pero el potencial de vigilancia del reconocimiento facial, su capacidad para crear una “alineación perpetua”, no es el único motivo de preocupación. Las fronteras tecnológicas que exploran investigadores dudosos y empresas emergentes sin escrúpulos recuerdan las pseudociencias desacreditadas de la fisonomía y la frenología, que pretenden utilizar la estructura facial y la forma de la cabeza para evaluar el carácter y la capacidad mental.

La inteligencia artificial y la informática moderna están dando nueva vida y una apariencia de objetividad a estas teorías desacreditadas, que alguna vez se usaron para legitimar la esclavitud y perpetuar la "ciencia" de la raza nazi. Están atentos quienes desean difundir teorías esencialistas de la jerarquía racial. En un blog, por ejemplo, un nacionalista blanco contemporáneo afirmó que “la fisonomía es real” y “debe volver como un campo legítimo de investigación científica”.

En términos más generales, las nuevas aplicaciones del reconocimiento facial, no solo en la investigación académica, sino también en productos comerciales que intentan adivinar las emociones a partir de las expresiones faciales, reflejan el mismo esencialismo biológico detrás de la fisonomía. Aparentemente, todavía no hemos aprendido que las caras no contienen una verdad más profunda sobre las personas a las que pertenecen.

Fotografías compuestas, nuevas y antiguas.

Uno de los pioneros del análisis facial del siglo XIX, Francis Galton, fue un destacado eugenista británico. Superpuso imágenes de hombres condenados por delitos, tratando de encontrar a través de “estadísticas pictóricas” la esencia del rostro criminal.

Galton quedó decepcionado con los resultados: no pudo discernir un "tipo" criminal a partir de sus fotografías compuestas. Esto se debe a que la fisonomía es ciencia basura: la criminalidad no está escrita ni en los genes ni en la cara. También trató de utilizar retratos compuestos para determinar el "tipo" ideal de cada raza, y su investigación fue citada por Hans F.K. Günther, un eugenista nazi que escribió un libro de lectura obligatoria en las escuelas alemanas durante el Tercer Reich.

Las herramientas e ideas de Galton han demostrado ser sorprendentemente duraderas, y los investigadores modernos nuevamente están contemplando si la criminalidad se puede leer en el rostro de uno. En un [artículo de 2016] muy cuestionado (https://www.semanticscholar.org/paper/Automated-Inference-on-Criminality-using-Face-Wu-Zhang/1cd357b675a659413e8abf2eafad2a463272a85f), los investigadores de una universidad china afirmaron que habían entrenado un algoritmo para distinguir los retratos criminales de los no criminales, y que "la curvatura de los labios, la distancia de la esquina interna del ojo y el llamado ángulo de la nariz y la boca" podría ayudar a distinguirlos. El artículo incluye “rostros promedio” de criminales y no criminales que recuerdan los retratos compuestos de Galton.

El documento se hace eco de muchas de las falacias de la investigación de Galton: que las personas condenadas por delitos son representativas de quienes los cometen (el sistema de justicia exhibe un profundo sesgo), que el concepto de "criminalidad" innata es sólido (las circunstancias de la vida moldean drásticamente la probabilidad de que uno cometiendo un crimen) y que la apariencia facial es un predictor confiable del carácter.

Es cierto que los humanos tienden a estar de acuerdo en cómo se ve una cara amenazante. Pero Alexander Todorov, psicólogo de Princeton, escribe en su libro “Valor facial” que la relación entre un rostro y nuestra sensación de que es amenazante (o amistoso) es “entre la apariencia y las impresiones, no entre la apariencia y el carácter”. La tentación de pensar que podemos leer algo más profundo de estos estereotipos visuales es equivocada, pero persistente.

En 2017, el profesor de Stanford Michal Kosinski fue autor de un estudio que afirmaba haber inventado un AI. "gaydar" que podría, cuando se le presentan imágenes de hombres homosexuales y heterosexuales, determinar cuáles son homosexuales con un 81 por ciento de precisión. (Le dijo a The Guardian que el reconocimiento facial podría usarse en el futuro para predecir el coeficiente intelectual. también.)

El artículo especula sobre si las diferencias en la estructura facial entre hombres homosexuales y heterosexuales podrían deberse a la exposición insuficiente a las hormonas masculinas, pero omite una explicación más simple, escribieron Blaise Agüera y Arcas y Margaret Mitchell, A.I. investigadores de Google y el Dr. Todorov en un artículo de Medium. La investigación se basó en imágenes de sitios web de citas. Es probable que las personas homosexuales y heterosexuales se presenten de manera diferente en estos sitios, desde el peinado hasta el grado en que están bronceados y el ángulo en que se toman sus selfies, dijeron los críticos. Pero el documento se enfoca en ideas que recuerdan la teoría desacreditada de la inversión sexual, que sostiene que la homosexualidad es una “inversión” innata de las características de género: hombres homosexuales con cualidades femeninas, por ejemplo.

“Usar lenguaje científico y medidas no evita que un investigador realice experimentos defectuosos y saque conclusiones equivocadas, especialmente cuando confirman ideas preconcebidas”, escribieron los críticos en [otra publicación] (https://medium.com/@blaisea/physiognomys- ropa-nueva-f2d4b59fdd6a).

ecos del pasado

Abundan los paralelismos entre la tecnología moderna y las aplicaciones históricas. Un libro de frenología de 1902 mostró cómo distinguir a un "esposo genuino" de uno "no confiable" según la forma de su cabeza; hoy, una empresa emergente israelí llamada Faception utiliza el aprendizaje automático para calificar imágenes faciales utilizando tipos de personalidad como "investigador académico", "promotor de marca", "terrorista" y "pedófilo".

Los materiales de marketing de Faception son casi cómicos en su reducción de personalidades a ocho estereotipos, pero la empresa parece tener clientes, lo que indica un interés en “legitimar este tipo de I.A. sistema”, dijo Clare Garvie, investigadora de reconocimiento facial en Georgetown Law.

“De alguna manera, son risibles”, dijo. “En otros sentidos, la misma parte que los hace ridículos es lo que los hace tan preocupantes”.

A principios del siglo XX, Katherine M.H. Blackford abogó por usar la apariencia física para seleccionar entre los solicitantes de empleo. Ella prefería analizar fotografías sobre entrevistas para revelar el carácter, escribe el Dr. Todorov. Hoy, la empresa HireVue vende tecnología que utiliza A.I. para analizar videos de solicitantes de empleo; la plataforma los califica en medidas como "estabilidad personal" y "escrupulosidad y responsabilidad".

Cesare Lombroso, un destacado fisonomista italiano del siglo XIX, propuso separar a los niños que juzgaba intelectualmente inferiores, según las medidas de la cara y el cuerpo, de sus “compañeros mejor dotados”. Hoy, los programas de reconocimiento facial se están probando en [universidades estadounidenses] (https://www.insidehighered.com/digital-learning/article/2018/02/20/sentiment-analysis-allows-instructors-shape-course-content) y escuelas chinas para monitorear las emociones y el compromiso de los estudiantes. Esto es problemático por innumerables razones: Los estudios no han demostrado una correlación entre la participación de los estudiantes y el aprendizaje real, y los maestros son [más probables] (https://www.sciencedirect.com/science/article/pii/S0361476X17301649) de ver las caras de los estudiantes negros como enojados, prejuicios que podrían colarse en un sistema automatizado.

Clasificación y vigilancia

Las similitudes entre el análisis facial moderno impulsado por IA y su iteración analógica anterior son espeluznantes. Ambos, por ejemplo, se originaron como intentos de rastrear delincuentes y objetivos de seguridad.

Alphonse Bertillon, un policía francés y pionero del análisis facial, quería identificar a los delincuentes reincidentes. Inventó la foto policial y anotó medidas corporales específicas como la longitud de la cabeza en sus "tarjetas Bertillon". Con registros de más de 100.000 presos recogidos entre 1883 y 1893, identificó a 4.564 reincidentes.

El esquema de clasificación de Bertillon fue reemplazado por un sistema de huellas dactilares más eficiente, pero la idea básica —usar medidas corporales para identificar a las personas al servicio de un aparato de inteligencia— renació con el reconocimiento facial moderno. El progreso en el reconocimiento facial por computadora ha sido impulsado por la inversión militar y [competencias gubernamentales] (https://www.nist.gov/programs-projects/face-challenges). (El interés de un director de la C.I.A. en la tecnología creció de una película de James Bond: le pidió a su personal que investigara el reconocimiento facial después de verlo utilizado en la película de 1985 “Panorama para matar”).

El primer software de reconocimiento facial desarrollado en la década de 1960 era como una versión asistida por computadora del sistema de Bertillon, que requería que los investigadores identificaran manualmente puntos como el centro del ojo de un sujeto (a una velocidad de aproximadamente 40 imágenes por hora). A fines de la década de 1990, los algoritmos podían mapear automáticamente las características faciales y, potenciados por computadoras, podían escanear videos en tiempo real.

Muchos de estos algoritmos están entrenados en personas que no dieron o no pudieron dar su consentimiento para que se usaran sus rostros. IBM tomó fotos públicas de Flickr para alimentar programas de reconocimiento facial. El Instituto Nacional de Estándares y Tecnología, una agencia gubernamental, aloja una base de datos de fotos policiales e imágenes de personas que han muerto. “Los datos embrujados persisten hoy”, dijo Joy Buolamwini, profesora del M.I.T. investigador, en un correo electrónico.

Inteligencia emocional"

Los servicios de análisis facial están disponibles comercialmente a través de proveedores como Amazon y Microsoft. Cualquiera puede usarlos a un precio nominal: Amazon cobra una décima parte de un centavo para procesar una imagen, para adivinar la identidad, el género, la edad y el estado emocional de una persona. Otras plataformas como Face ++ adivinan la carrera también.

Pero estos algoritmos tienen problemas documentados con rostros que no son blancos ni masculinos. Y la idea de que A.I. puede detectar la presencia de emociones, más comúnmente felicidad, tristeza, ira, disgusto y sorpresa, es especialmente tenso. Los clientes han utilizado el "reconocimiento de afecto" para todo, desde medir cómo reacciona la gente a los anuncios hasta ayudar a los niños con autismo a desarrollar habilidades sociales y emocionales, pero un informe del A.I. Now Institute argumenta que la tecnología se está “aplicando de manera poco ética e irresponsable”.

El reconocimiento de afecto se basa en el trabajo de Paul Ekman, un psicólogo moderno que argumentó que las expresiones faciales son una forma objetiva de determinar el estado emocional interno de alguien y que existe un conjunto limitado de categorías emocionales básicas que se fijan en todas las culturas. Su trabajo sugiere que no podemos evitar revelar estas emociones. Esa teoría inspiró el programa de televisión "Miénteme", sobre un científico que ayuda a las fuerzas del orden interpretando las expresiones de los sospechosos que no se comunican.

El trabajo del Dr. Ekman ha sido criticado por académicos que dicen que las emociones no pueden reducirse a categorías tan fácilmente interpretables y computacionalmente convenientes. Los algoritmos que usan estas categorías simplistas "probablemente reproduzcan los errores de un paradigma científico obsoleto", según la A.I. Ahora informe.

Además, no es difícil extenderse desde la interpretación de los resultados del análisis facial como “lo feliz que parece esta cara” hasta el más simple pero inexacto “lo feliz que se siente esta persona” o incluso “lo feliz que esta persona es realmente, a pesar de sus esfuerzos por enmascarar sus emociones.” Como la I.A. Ahora, el informe dice que el reconocimiento del afecto “plantea preguntas éticas preocupantes sobre la ubicación del árbitro del carácter y las emociones ‘reales’ de alguien fuera del individuo”.

Hemos estado aquí antes. Al igual que las tecnologías del siglo XIX de la fotografía y los retratos compuestos prestaron "objetividad" a la fisonomía pseudocientífica, hoy en día, las computadoras y la inteligencia artificial supuestamente distancian el análisis facial del juicio y los prejuicios humanos. En realidad, los algoritmos que se basan en una comprensión defectuosa de las expresiones y las emociones pueden hacer que los prejuicios sean más difíciles de detectar.

En su libro, el Dr. Todorov analiza al físico alemán Georg Christoph Lichtenberg, un escéptico de la fisonomía del siglo XVIII que pensaba que la práctica “simplemente autorizaba nuestros impulsos naturales para formar impresiones a partir de la apariencia”.

Si la fisonomía ganara fuerza, "uno colgará a los niños antes de que hayan hecho los actos que merecen la horca", escribió Lichtenberg, advirtiendo de un "auto de fe fisonómico".

A medida que se desarrolla la tecnología de reconocimiento facial, sería prudente prestar atención a sus palabras.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd