Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 101

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
La aplicación Google Photo etiqueta a una pareja negra como 'gorilas'
news.sky.com · 2015

Google ha dicho que "realmente lo siente" después de que su software de reconocimiento de imágenes etiquetara las fotografías de una pareja negra como "gorilas".

La aplicación Google Photos, lanzada en mayo, utiliza una herramienta de etiquetado automático para ayudar a organizar las imágenes cargadas y facilitar la búsqueda.

Pero el software de inteligencia artificial describió erróneamente al programador informático afroamericano Jacky Alcine y su amigo.

El lunes, el Sr. Alcine, de Brooklyn, Nueva York, detectó el error atroz.

Imagen: el Sr. Alcine publicó una serie de tuits destacando el problema

En una serie de tuits a Google, dijo: "Google Photos, todos jodidos. Mi amigo no es un gorila".

Anuncio publicitario

Agregó: "Lo único bajo esta etiqueta es que mi amigo y yo estamos etiquetados como gorila".

El Sr. Alcine también comentó: "¿Qué tipo de datos de imagen de muestra recopiló que resultarían en este hijo?"

Recibió una respuesta del arquitecto social en jefe de Google, Yonatan Zunger, ese mismo día.

"Esto no está bien al 100 por ciento", dijo Zunger, prometiendo una solución más tarde esa noche.

Google dijo en un comunicado: "Estamos consternados y realmente lamentamos que esto haya sucedido.

"Estamos tomando medidas inmediatas para evitar que este tipo de resultado aparezca".

"Claramente, todavía hay mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos viendo cómo podemos evitar que este tipo de errores ocurran en el futuro".

Una persona en Twitter lo denominó "la primera instancia de racismo de IA".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd