Registro de citas para el Incidente 103

Description: Twitter's photo cropping algorithm was revealed by researchers to favor white and women faces in photos containing multiple faces, prompting the company to stop its use on mobile platform.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
Presunto: un sistema de IA desarrollado e implementado por Twitter, perjudicó a Twitter Users , Twitter non-white users y Twitter non-male users.

Estadísticas de incidentes

ID
103
Cantidad de informes
5
Fecha del Incidente
2020-09-18
Editores
Sean McGregor, Khoa Lam

Clasificaciones de la Taxonomía GMF

Detalles de la Taxonomía

Known AI Goal

Image Cropping

Known AI Technology

Neural Network

Known AI Technical Failure

Generalization Failure

Potential AI Technical Failure

Distributional Bias, Incomplete Data Attribute Capture

Por qué el algoritmo de recorte de imágenes de Twitter parece tener un sesgo blanco
thenextweb.com · 2020

El algoritmo de Twitter para recortar automáticamente las imágenes adjuntas a los tweets a menudo no se enfoca en el contenido importante de ellos. Una molestia, seguro, pero parece menor en la superficie. Sin embargo, durante el fin de sem…

El algoritmo de recorte de fotos de Twitter favorece a las caras blancas y a las mujeres
wired.com · 2021

Un estudio de 10,000 imágenes encontró sesgo en lo que el sistema elige resaltar. Twitter ha dejado de usarlo en dispositivos móviles y considerará deshacerse de él en la web.

EL OTOÑO PASADO, el estudiante canadiense Colin Madland notó que…

Compartir aprendizajes sobre nuestro algoritmo de recorte de imágenes
blog.twitter.com · 2021

En octubre de 2020, escuchamos comentarios de personas en Twitter sobre nuestro [algoritmo de recorte de imágenes](https: //blog.twitter.com/engineering/en_us/topics/infrastructure/2018/Smart-Auto-Cropping-of-Images.html) no sirvió a todas …

Twitter lanza un concurso de recompensas por errores para detectar sesgos algorítmicos
engadget.com · 2021

Twitter ha presentado planes para una competencia de recompensas por errores con una diferencia. Esta vez, en lugar de pagar a los investigadores que descubren problemas de seguridad, Twitter recompensará a aquellos que encuentren ejemplos …

El programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas
engadget.com · 2021

El primer [programa de recompensas por sesgo de IA] de Twitter (https://www.engadget.com/twitter-bug-bounty-contest-algorithm-bias-image-cropping-185634779.html) ha concluido, y ya hay algunos problemas que la empresa quiere abordar. CNET i…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents