Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1369

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
Google Fotos identificó a dos negros como 'gorilas'
mashable.com · 2015

Google Photos utiliza un sofisticado software de reconocimiento facial para identificar no solo a las personas, sino también a categorías específicas de objetos y tipos de fotografías, como comida, gatos y horizontes.

Sin embargo, los programas de reconocimiento de imágenes están lejos de ser perfectos; a veces se equivocan cómicamente y, a veces, de manera ofensiva, como descubrió recientemente un usuario de Twitter.

VEA TAMBIÉN: Facebook desarrolla tecnología que puede reconocerlo en fotos, incluso si su rostro no se muestra

Al navegar por su aplicación Google Fotos, Jacky Alciné, residente de Brooklyn, notó que las fotos de él y un amigo, ambos negros, estaban etiquetadas con la etiqueta "Gorilas". Compartió una captura de pantalla de la etiqueta racista en Twitter, que fue detectada por Yahoo Tech.

Google Fotos, todos jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4

— diri noir avec banan (@jackyalcine) 29 de junio de 2015

Yonatan Zunger, arquitecto social en jefe de Google, respondió rápidamente.

@jackyalcine Santa mierda. G+ CA aquí. No, así no se determina el mercado objetivo de alguien. Esto es 100% incorrecto.

— Yonatan Zunger (@yonatanzunger) 29 de junio de 2015

En una tormenta de tuits posterior, Zunger dijo que Google estaba reuniendo a un equipo para abordar el problema y que la etiqueta se eliminó de su aplicación en 15 horas, confirmó Alciné a Mashable. Zunger dijo que Google también estaba buscando soluciones a más largo plazo. Un portavoz de Google también envió una declaración oficial:

“Estamos consternados y realmente lamentamos que esto haya sucedido. Estamos tomando medidas inmediatas para evitar que este tipo de resultado aparezca. Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.

Desafortunadamente, esta no es la primera vez que un software difama inadvertidamente a personas de piel oscura. En mayo, la función de etiquetado automático de Flickr etiquetó a una persona negra como un "mono", aunque también puso la misma etiqueta a una mujer blanca. Y hace años, algunas cámaras web en las computadoras portátiles fabricadas por HP no rastreaban las caras de las personas negras, aunque sí lo hacían con las de los usuarios blancos.

Al menos en el caso de Google Photos, el incidente parece ser aislado, ya que no parece que otros usuarios hayan presentado quejas similares de etiquetas ofensivas. Pero es un recordatorio de que, aunque las computadoras están comenzando a hacer un muy buen trabajo simulando la visión humana, están muy lejos de simular la sensibilidad humana.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd