Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1438

Incidentes Asociados

Incidente 1131 Reporte
Facebook's AI Put "Primates" Label on Video Featuring Black Men

Loading...
Facebook se disculpa después de que A.I. Pone etiqueta de 'Primates' en video de hombres negros
nytimes.com · 2021

Los usuarios de Facebook que vieron recientemente un video de un tabloide británico con hombres negros vieron un aviso automático de la red social que les preguntaba si les gustaría "seguir viendo videos sobre primates", lo que provocó que la compañía investigara y deshabilitara la función impulsada por inteligencia artificial. que empujó el mensaje.

El viernes, Facebook se disculpó por lo que llamó “un error inaceptable” y dijo que estaba investigando la función de recomendación para “evitar que esto vuelva a suceder”.

El video, fechado el 27 de junio de 2020, fue publicado por The Daily Mail y presentaba clips de hombres negros en altercados con civiles y policías blancos. No tenía conexión con monos o primates.

Darci Groves, ex gerente de diseño de contenido en Facebook, dijo que un amigo le había enviado recientemente una captura de pantalla del aviso. Luego lo publicó en un foro de comentarios sobre productos para empleados actuales y anteriores de Facebook. En respuesta, un gerente de producto de Facebook Watch, el servicio de video de la compañía, lo calificó de "inaceptable" y dijo que la compañía estaba "investigando la causa principal".

La Sra. Groves dijo que el aviso era "horrible y atroz".

Dani Lever, una portavoz de Facebook, dijo en un comunicado: “Como hemos dicho, aunque hemos realizado mejoras en nuestra IA, sabemos que no es perfecta y tenemos más progreso por hacer. Pedimos disculpas a cualquiera que haya visto estas recomendaciones ofensivas”.

Google, Amazon y otras compañías de tecnología han estado bajo escrutinio durante años por sesgos dentro de sus sistemas de inteligencia artificial, particularmente en torno a cuestiones de raza. Los estudios han demostrado que la tecnología de reconocimiento facial está sesgada contra las personas de color y tiene más problemas para identificarlas, lo que lleva a incidentes en los que las personas negras han sido discriminadas o arrestadas debido a errores informáticos.

En un ejemplo en 2015, Google Photos etiquetó erróneamente las imágenes de personas negras como "gorilas", por lo que Google dijo que "lo lamentaba sinceramente" y que trabajaría para solucionar el problema de inmediato. Más de dos años después, Wired descubrió que la solución de Google era censurar la palabra "gorila" en las búsquedas, al mismo tiempo que bloqueaba "chimpancé", "chimpancé" y "mono".

Facebook tiene uno de los repositorios más grandes del mundo de imágenes subidas por los usuarios para entrenar sus algoritmos de reconocimiento facial y de objetos. La empresa, que adapta el contenido a los usuarios en función de sus hábitos anteriores de navegación y visualización, a veces pregunta a las personas si les gustaría seguir viendo publicaciones en categorías relacionadas. No estaba claro si los mensajes como el de los "primates" estaban generalizados.

Facebook y su aplicación para compartir fotos, Instagram, han tenido problemas con otros problemas relacionados con la raza. Después del Campeonato de Europa de fútbol de julio, por ejemplo, tres miembros negros de la selección nacional de fútbol de Inglaterra fueron abusados racialmente en la red social por fallar tiros penales en el juego del campeonato.

Los problemas raciales también han causado conflictos internos en Facebook. En 2016, Mark Zuckerberg, el director ejecutivo, pidió a los empleados que dejaran de tachar la frase "Black Lives Matter" y reemplazarla con "All Lives Matter" en un espacio común en la sede de la empresa en Menlo Park, California. Cientos de empleados también organizaron una huelga virtual el año pasado para protestar por el manejo de la compañía de una publicación del presidente Donald J. Trump sobre el asesinato de George Floyd en Minneapolis.

Posteriormente, la empresa contrató a un vicepresidente de derechos civiles y publicó una auditoría de derechos civiles. En un informe anual de diversidad en julio, Facebook dijo que el 4,4 por ciento de sus empleados en los EE. UU. eran negros, frente al 3,9 por ciento del año anterior.

Groves, quien dejó Facebook durante el verano después de cuatro años, dijo en una entrevista que una serie de pasos en falso en la empresa sugerían que lidiar con los problemas raciales no era una prioridad para sus líderes.

"Facebook no puede seguir cometiendo estos errores y luego decir 'lo siento'", dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd