Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 1101

Incidentes Asociados

Incidente 6023 Reportes
FaceApp Racial Filters

Loading...
FaceApp culpa a la IA por blanquear a los negros
gizmodo.co.uk · 2017

Las personas que realmente quieren ver sus rostros reflejados en las pantallas de sus teléfonos se han estado divirtiendo con FaceApp recientemente, con Facebook y Twitter actualmente sobrecargados con imágenes de usuarios que comparten cómo se ven jóvenes, viejos y "calientes" según lo adaptado por los filtros de la aplicación.

Lo cual es una diversión inofensiva y egoísta, pero por el hecho de que la imagen "caliente" se está convirtiendo en un problema para el creador de la aplicación, ya que los usuarios con piel más oscura están descubriendo que todo lo que realmente hace es adelgazar sus características y vuélvelos blancos. Lo cual es realmente bastante incómodo y está dando como resultado algunos tweets de desastres de relaciones públicas de primer nivel como este:

Así que descargué esta aplicación y decidí elegir el filtro "caliente" sin saber que me haría blanco. Es 2017, vamos chicos smh#FaceApp pic.twitter.com/9U9dv9JuCm — Shahquelle L. (@RealMoseby96) 20 de abril de 2017

También elimina las gafas porque cree que todos los que las usan son unos perdedores. El creador de la aplicación tampoco se hace responsable de ello y, en cambio, se queja de los problemas con el aprendizaje automático y la red neuronal. Le dijo a la BBC que: "Lamentamos profundamente este problema incuestionablemente grave. Es un efecto secundario desafortunado de la red neuronal subyacente causado por el sesgo del conjunto de entrenamiento, no por el comportamiento previsto".

Así que accidentalmente crearon una computadora racista y tienes que estar enojado con la computadora, ¿de acuerdo? Y en lugar de arreglarlo, simplemente cambiaron el nombre de la función de "caliente" a "chispa".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd