Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 85

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
Google Photos etiqueta a dos afroamericanos como gorilas a través de un software de reconocimiento facial
forbes.com · 2015

Cuando Jacky Alcine, nativo de Brooklyn, inició sesión en Google Photos el domingo por la noche, se sorprendió al encontrar un álbum titulado "Gorillas", en el que el software de reconocimiento facial los clasificaba a él y a su amigo como primates. Inmediatamente, Alcine publicó en Twitter: “Google Photos, todos jodidos. Mi amigo no es un gorila. Este comentario provocó más de 1000 retuits y una discusión en línea sobre lo impactante que era la situación. Un usuario respondió: “Eso es completamente inaceptable y muy bajo. Lamento mucho que hayas tenido que encontrarte con una ignorancia tan hiriente”.

Alcine agregó una serie de tweets de seguimiento, incluido uno que decía: “Al igual que entiendo CÓMO sucede esto; el problema está más en el POR QUÉ. Así es como determinas el mercado objetivo de alguien”.

Yonatan Zunger, el principal arquitecto de redes sociales de Google, se apresuró a abordar el problema. A las pocas horas de la publicación original de Alcine, Zunger tuiteó: “Santo cielo. G+ CA aquí. No, así no se determina el mercado objetivo de alguien. Esto está 100% mal”. El equipo inmediatamente se puso a trabajar para examinar los datos y solucionar el problema. Zunger hizo un seguimiento con Alcine a la mañana siguiente solo para asegurarse de que todo estaba bien.

“Estamos consternados y realmente lamentamos que esto haya sucedido”, dijo un portavoz de Google. “Estamos tomando medidas inmediatas para evitar que aparezca este tipo de resultado. Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.

Es importante tener en cuenta que los afroamericanos no son el único grupo mal etiquetado por Google Photos. Como señala Zunger en un tweet, “Hasta hace poco, [Google Photos] confundía caras blancas con perros y focas. El aprendizaje automático es difícil".

Brian Brackeen, director ejecutivo de la empresa de reconocimiento facial Kairos, dice que las máquinas pueden hacer suposiciones culturalmente inapropiadas cuando no están debidamente capacitadas. “Es aterradoramente similar a cómo aprende un niño”, dijo.

Esta no es la primera vez que el software de reconocimiento facial, que se basa en el aprendizaje automático y la visión por computadora, ha estropeado su identificación de personas.

El pasado mes de mayo, el software de reconocimiento facial de Flickr etiquetó a las personas blancas y negras como "animales" y "simios" (estas etiquetas se eliminaron de inmediato). Además, muchas fotos de bailarines nativos americanos estaban etiquetadas con la palabra “disfraz”, lo que añadía un gran insulto a la comunidad.

En 2009, las cámaras de detección de rostros de Nikon fueron acusadas de ser “racistas”. Muchas veces, cuando se fotografiaba un rostro asiático, aparecía un mensaje en la pantalla que preguntaba: "¿Alguien parpadeó?". — incluso cuando tenían los ojos bien abiertos. Como empresa japonesa, Nikon aparentemente se olvidó de diseñar su cámara con los ojos asiáticos en mente.

Unos meses después de la controversia de Nikon, un video de Youtube sobre una computadora HP MediaSmart se volvió viral. Aunque fue diseñado para seguir los rostros de todos los usuarios, no podía reconocer al hombre afroamericano que se movía frente a él. Sin embargo, rápidamente comenzó a rastrear el rostro de una mujer blanca tan pronto como caminaba frente a la cámara.

Estos puntos no son para avergonzar a Google, Nikon o HP, que son empresas que no tienen intenciones maliciosas detrás de su software de reconocimiento facial. El software seguirá estando lejos de ser perfecto en el futuro previsible.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd