Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 87

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
Google Photos etiqueta a las personas negras como 'gorilas' y pone las fotos en una carpeta especial
independent.co.uk · 2015

El algoritmo de reconocimiento de imágenes de Google está etiquetando fotos de personas negras como gorilas y colocándolas en un álbum especial.

El software de reconocimiento automático tiene como objetivo detectar las características de las fotos y clasificarlas juntas, de modo que todas las imágenes de automóviles en la biblioteca de una persona se puedan encontrar en un solo lugar, por ejemplo. Pero la herramienta parece estar identificando a las personas negras como animales.

El problema fue detectado por Jacky Alcine, quien dijo que las fotos tomadas con un amigo se clasificaban en la etiqueta de gorila. Allí no aparecían más imágenes que las de él y su amigo, dijo Alcine.

Un ingeniero de Google, Yonatan Zunger, tuiteó a Alcine para decirle que el problema se había solucionado, aunque Alcine informó que aún aparecían imágenes en la categoría.

Los tuits de Zunger parecían sugerir que la herramienta había dejado de identificar imágenes con la etiqueta de gorila para evitar que el problema afectara a cualquier otra persona. Dijo que los ingenieros también mejorarían el código a largo plazo.

“Estamos consternados y realmente lamentamos que esto haya sucedido”, dijo Google en un comunicado. “Estamos tomando acciones inmediatas para evitar que este tipo de resultado se presente.

“Claramente, todavía queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro”.

El problema es casi idéntico al que afectó al sitio de fotos Flickr a principios de este año, cuando introdujo una funcionalidad muy similar. Eso etiquetó accidentalmente a las personas negras como un "mono" y un "animal", junto con otras etiquetas ofensivas como llamar a las puertas de Dachau un "gimnasio de la jungla".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd