Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 93

Incidentes Asociados

Incidente 1623 Reportes
Images of Black People Labeled as Gorillas

Loading...
Google se disculpa por etiquetar fotos de personas negras como 'gorilas'
huffingtonpost.com · 2015

Cuando Jacky Alciné revisó su aplicación Google Photos a principios de esta semana, notó que etiquetaba fotos de él y un amigo, ambos negros, como "gorilas".

El programador de Brooklyn publicó sus capturas de pantalla en Twitter para denunciar el software defectuoso de reconocimiento de fotos de la aplicación:

Google Fotos, todos jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4 — Jacky vive en @jalcine@playvicious.social ahora. (@jackyalcine) 29 de junio de 2015

Y son solo las fotos que tengo con ella con las que está haciendo esto (resultados truncados b/c personal): pic.twitter.com/h7MTXd3wgo — Jacky vive en @jalcine@playvicious.social ahora. (@jackyalcine) 29 de junio de 2015

Yonatan Zunger, arquitecto jefe de redes sociales de Google, respondió en Twitter con la promesa de arreglar la etiqueta. Al día siguiente, informa USA Today, Google eliminó por completo la etiqueta "gorila".

"Estamos consternados y realmente lamentamos que esto haya sucedido", dijo la portavoz de Google, Katie Watson, en un comunicado a la BBC. "Estamos tomando medidas inmediatas para evitar que aparezcan este tipo de resultados. Claramente, aún queda mucho trabajo por hacer con el etiquetado automático de imágenes, y estamos analizando cómo podemos evitar que este tipo de errores ocurran en el futuro". "

@jackyalcine y el propio reconocimiento de imágenes. (por ejemplo, un mejor reconocimiento de rostros de piel oscura) — Yonatan Zunger 🔥 (@yonatanzunger) 29 de junio de 2015

Esta no es la primera vez este año que Google ha tenido que disculparse por algo ofensivo en su software. Google Maps llegó a los titulares cuando los usuarios descubrieron el mes pasado que al ingresar un insulto racial en el campo de búsqueda en algún área se obtenía la dirección de la Casa Blanca. El sitio corrigió rápidamente el lapso.

Los números de diversidad de Google se han mantenido en gran medida estáticos a lo largo de los años. Alrededor del 70 por ciento de los empleados son hombres. El sesenta por ciento de los empleados de la empresa son blancos y el 31 por ciento son asiáticos. Combinados, los afroamericanos y los latinos representan solo el 5 por ciento de la fuerza laboral.

Como Alciné le dijo a The Huffington Post a través de un mensaje directo de Twitter: "Un equipo de control de calidad diverso podría haber detectado esto si lo probaron ellos mismos, o un grupo de enfoque diverso para la prueba".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd