Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Incidente 103: Twitter’s Image Cropping Tool Allegedly Showed Gender and Racial Bias

Descripción: Twitter's photo cropping algorithm was revealed by researchers to favor white and women faces in photos containing multiple faces, prompting the company to stop its use on mobile platform.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Presunto: un sistema de IA desarrollado e implementado por Twitter, perjudicó a Twitter Users , Twitter non-white users y Twitter non-male users.

Estadísticas de incidentes

ID
103
Cantidad de informes
5
Fecha del Incidente
2020-09-18
Editores
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, CSETv1, MIT

Clasificaciones de la Taxonomía GMF

Detalles de la Taxonomía

Known AI Goal Snippets

One or more snippets that justify the classification.
 

(Snippet Text: Twitter‘s algorithm for automatically cropping images attached to tweets often doesn’t focus on the important content in them. , Related Classifications: Image Cropping)

Clasificaciones de la Taxonomía CSETv1

Detalles de la Taxonomía

Incident Number

The number of the incident in the AI Incident Database.
 

103

Special Interest Intangible Harm

An assessment of whether a special interest intangible harm occurred. This assessment does not consider the context of the intangible harm, if an AI was involved, or if there is characterizable class or subgroup of harmed entities. It is also not assessing if an intangible harm occurred. It is only asking if a special interest intangible harm occurred.
 

yes

Notes (AI special interest intangible harm)

If for 5.5 you select unclear or leave it blank, please provide a brief description of why. You can also add notes if you want to provide justification for a level.
 

The cropping neutral network would crop the preview image in way that focused more on individuals with lighter completions, younger, female, or without disabilities.

Date of Incident Year

The year in which the incident occurred. If there are multiple harms or occurrences of the incident, list the earliest. If a precise date is unavailable, but the available sources provide a basis for estimating the year, estimate. Otherwise, leave blank. Enter in the format of YYYY
 

2020

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

1.1. Unfair discrimination and misrepresentation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Discrimination and Toxicity

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Unintentional

Informes del Incidente

Cronología de Informes

+1
Por qué el algoritmo de recorte de imágenes de Twitter parece tener un sesgo blanco
+1
El algoritmo de recorte de fotos de Twitter favorece a las caras blancas y a las mujeres
Twitter lanza un concurso de recompensas por errores para detectar sesgos algorítmicosEl programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas
Por qué el algoritmo de recorte de imágenes de Twitter parece tener un sesgo blanco

Por qué el algoritmo de recorte de imágenes de Twitter parece tener un sesgo blanco

thenextweb.com

El algoritmo de recorte de fotos de Twitter favorece a las caras blancas y a las mujeres

El algoritmo de recorte de fotos de Twitter favorece a las caras blancas y a las mujeres

wired.com

Compartir aprendizajes sobre nuestro algoritmo de recorte de imágenes

Compartir aprendizajes sobre nuestro algoritmo de recorte de imágenes

blog.twitter.com

Twitter lanza un concurso de recompensas por errores para detectar sesgos algorítmicos

Twitter lanza un concurso de recompensas por errores para detectar sesgos algorítmicos

engadget.com

El programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas

El programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas

engadget.com

Por qué el algoritmo de recorte de imágenes de Twitter parece tener un sesgo blanco
thenextweb.com · 2020
Traducido por IA

El algoritmo de Twitter para recortar automáticamente las imágenes adjuntas a los tweets a menudo no se enfoca en el contenido importante de ellos. Una molestia, seguro, pero parece menor en la superficie. Sin embargo, durante el fin de sem…

El algoritmo de recorte de fotos de Twitter favorece a las caras blancas y a las mujeres
wired.com · 2021
Traducido por IA

Un estudio de 10,000 imágenes encontró sesgo en lo que el sistema elige resaltar. Twitter ha dejado de usarlo en dispositivos móviles y considerará deshacerse de él en la web.

EL OTOÑO PASADO, el estudiante canadiense Colin Madland notó que…

Compartir aprendizajes sobre nuestro algoritmo de recorte de imágenes
blog.twitter.com · 2021
Traducido por IA

En octubre de 2020, escuchamos comentarios de personas en Twitter sobre nuestro [algoritmo de recorte de imágenes](https: //blog.twitter.com/engineering/en_us/topics/infrastructure/2018/Smart-Auto-Cropping-of-Images.html) no sirvió a todas …

Twitter lanza un concurso de recompensas por errores para detectar sesgos algorítmicos
engadget.com · 2021
Traducido por IA

Twitter ha presentado planes para una competencia de recompensas por errores con una diferencia. Esta vez, en lugar de pagar a los investigadores que descubren problemas de seguridad, Twitter recompensará a aquellos que encuentren ejemplos …

El programa de recompensas de inteligencia artificial de Twitter revela un sesgo hacia las personas blancas jóvenes y bonitas
engadget.com · 2021
Traducido por IA

El primer [programa de recompensas por sesgo de IA] de Twitter (https://www.engadget.com/twitter-bug-bounty-contest-algorithm-bias-image-cropping-185634779.html) ha concluido, y ya hay algunos problemas que la empresa quiere abordar. CNET i…

Variantes

Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 informes
FaceApp Racial Filters

FaceApp deletes new black, white and Asian filters after racism storm

Apr 2017 · 23 informes
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Images of Black People Labeled as Gorillas

When It Comes to Gorillas, Google Photos Remains Blind

Jun 2015 · 24 informes
FaceApp Racial Filters

FaceApp deletes new black, white and Asian filters after racism storm

Apr 2017 · 23 informes
TayBot

Danger, danger! 10 alarming examples of AI gone wild

Mar 2016 · 28 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df