Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1119

Incidentes Asociados

Incidente 6023 Reportes
FaceApp Racial Filters

Loading...
La popular aplicación de envejecimiento facial ahora ofrece filtros 'Negro', 'Indio' y 'Asiático'
theverge.com · 2017

El CEO de FaceApp dice: "Los nuevos filtros controvertidos se eliminarán en las próximas horas".

Es posible que recuerde FaceApp, una aplicación de edición de selfies que transforma las imágenes de los usuarios haciéndolos parecer mayores, más jóvenes o dándoles una sonrisa artificial. Bueno, a principios de este mes, los creadores de la aplicación rusa actualizaron su software con cuatro nuevos filtros: "Asiático", "Negro", "Caucásico" e "Indio". Los usuarios, detectados por primera vez por Mic, pueden seleccionar estas opciones y la aplicación alterará su apariencia, cambiando el color de su piel y cabello.

Es equivalente a una especie de cara negra digital, "disfrazándose" de diferentes etnias. Snapchat fue criticado anteriormente por implementar una función similar cuando lanzó una máscara para selfies de Bob Marley para celebrar el 20/4. La propia FaceApp ha sido criticada por su insensibilidad racial en el pasado, y los usuarios señalaron que su filtro "caliente" aclaraba constantemente los tonos de piel de los usuarios.

Más tarde, la compañía se disculpó por la característica, y el director ejecutivo, Yaroslav Goncharov, explicó que el efecto era un "efecto secundario desafortunado de la red neuronal subyacente causado por el sesgo del conjunto de entrenamiento". Esto significa que el software que se usó para cambiar la apariencia de los usuarios se había alimentado solo con imágenes de personas blancas, por lo que este era el color de piel que asociaba con "calor". Este tipo de sesgo basado en datos es un gran problema en el campo de la inteligencia artificial, con programas que incorporan regularmente prejuicios raciales y de género debido a los datos en los que están entrenados.

Sin embargo, en el caso de la última actualización de FaceApp, Goncharov afirma que no hay sesgos ni prejuicios involucrados. “Los filtros de cambio de etnicidad han sido diseñados para ser iguales en todos los aspectos”, le dijo a The Verge por correo electrónico. “No tienen connotaciones positivas o negativas asociadas con ellos. Incluso están representados por el mismo icono. Además de eso, la lista de esos filtros se mezcla para cada foto, por lo que cada usuario los ve en un orden diferente”.

Sin embargo, algunos podrían señalar que el orden en que aparecen los filtros no es el problema: es el hecho de que se ofrecen en primer lugar.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd