Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2145

Incidentes Asociados

Incidente 1035 Reportes
Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Loading...
El programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas
engadget.com · 2021

El primer [programa de recompensas por sesgo de IA] de Twitter (https://www.engadget.com/twitter-bug-bounty-contest-algorithm-bias-image-cropping-185634779.html) ha concluido, y ya hay algunos problemas que la empresa quiere abordar. CNET informa que el estudiante de posgrado Bogdan Kulynych ha descubierto que los filtros de belleza de las fotos sesgan el sistema de puntuación del algoritmo de prominencia (importancia) de Twitter a favor de las personas más delgadas, más jóvenes y de piel más clara (o de tonos más cálidos). Los hallazgos muestran que los algoritmos pueden "amplificar los sesgos del mundo real" y las expectativas de belleza convencionales, dijo Twitter.

Este no fue el único problema. Halt AI aprendió que el algoritmo de prominencia de Twitter "perpetuó la marginación" al eliminar a los ancianos y las personas con discapacidades. Mientras tanto, la investigadora Roya Pakzad encontró que el algoritmo de prominencia prefiere recortar la escritura latina sobre la árabe. Otro investigador detectó un sesgo hacia los emojis de piel clara, mientras que un colaborador anónimo descubrió que los píxeles casi invisibles podían manipular las preferencias del algoritmo.

Twitter ha publicado el código para las entradas ganadoras.

La compañía no dijo qué tan pronto podría abordar el sesgo algorítmico. Sin embargo, esto viene como parte de una creciente reacción violenta a los filtros de belleza sobre sus Tendencia a crear o reforzar estándares poco realistas. Google, por ejemplo, desactivó el retoque automático de selfies en los teléfonos Pixel y dejó de referirse a los procesos como filtros de belleza. No sería sorprendente que el algoritmo de Twitter adoptara una postura más neutral sobre el contenido en un futuro próximo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd