Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 847

Incidentes Asociados

Incidente 4820 Reportes
Passport checker Detects Asian man's Eyes as Closed

Loading...
El software de reconocimiento facial rechaza la foto del pasaporte de un hombre asiático porque cree que tiene los ojos cerrados
techspot.com · 2016

¿Puede el software ser racista? No, aunque los humanos pueden, sin darse cuenta, diseñar programas que parezcan racialmente insensibles o, como fue el caso del chatbot Tay de Microsoft, convertir intencionalmente una IA en un incitador del odio. Los sistemas de reconocimiento facial caen ocasionalmente en la primera categoría; En el último incidente, se rechazó la foto del pasaporte de un hombre de ascendencia asiática de Nueva Zelanda porque el software pensó que tenía los ojos cerrados.

Richard Lee, de veintidós años, intentaba renovar su pasaporte en línea, pero se sorprendió cuando el verificador de fotos bloqueó su foto. “Los ojos del sujeto están cerrados”, decía la notificación, a pesar de que están claramente abiertos. Parece que el software estaba teniendo problemas con los pliegues epicánticos de Lee, nacido en Taiwán.

El estudiante de ingeniería, que actualmente estudia Ingeniería Aeroespacial y Administración de Empresas en Melbourne, se comunicó con el Departamento de Asuntos Internos para averiguar por qué el sistema tenía problemas con su imagen. Un portavoz le dijo que la "iluminación desigual en la cara" hizo que se rechazara y explicó que hasta el 20 por ciento de las fotos de pasaporte enviadas en línea son rechazadas por varias razones, la más común es que los ojos del sujeto están cerrados.

Lee no se ofendió por la respuesta del sistema automatizado. "Sin resentimientos de mi parte, siempre he tenido ojos muy pequeños y la tecnología de reconocimiento facial es relativamente nueva y poco sofisticada", dijo a Reuters. "Era un robot, sin resentimientos. Al final conseguí renovar mi pasaporte".

El incidente muestra que, si bien el reconocimiento facial ha recorrido un largo camino, todavía hay obstáculos en el camino. El año pasado, Google se vio en problemas después de que su software etiquetara a dos personas negras en una fotografía como "gorilas".

Lee dijo que vio el humor en su situación. "'Algunas personas se ofenden con demasiada facilidad porque no tienen tanta confianza en sus orígenes... Al final del día, todos somos diferentes y, por supuesto, hay ciertas situaciones en las que tienes que dar la cara y algunas situaciones es solo una buena carcajada. Incluso subió la imagen de abajo a Facebook.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd