Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 2638

Incidentes Asociados

Incidente 4693 Reportes
Automated Adult Content Detection Tools Showed Bias against Women Bodies

Loading...
Una nueva investigación revela que las herramientas de IA están sexualizando los cuerpos de las mujeres en las fotos
thestoryexchange.org · 2023

Muchas plataformas de redes sociales como Instagram y LinkedIn usan sistemas de moderación de contenido para suprimir imágenes que son sexualmente explícitas o consideradas inapropiado para los espectadores.

Pero, ¿qué sucede cuando estos sistemas bloquean imágenes que no tienen ningún carácter sexual?

Una [investigación] reciente (https://www.theguardian.com/technology/2023/feb/08/biased-ai-algorithms-racy-women-bodies) de The Guardian, producida en asociación con AI Accountability del Centro Pulitzer Network, reveló que los algoritmos de inteligencia artificial utilizados en los sistemas de moderación de contenido tienen un sesgo de género implícito que a menudo lleva a que las fotos de mujeres sean sexualizadas.

Por ejemplo, The Guardian pasó una foto de la barriga de una mujer embarazada a través del algoritmo de Microsoft para poder calificar la "subidonidad" de la foto. El algoritmo tenía un 90% de confianza en que la foto era "de naturaleza sexualmente sugerente".

La investigación mostró que fotos de mujeres realizando actividades cotidianas como hacer ejercicio o someterse a exámenes médicos también han sido objeto de este falso análisis.

El informe de The Guardian es uno de los últimos en mostrar cómo el sesgo de género sigue siendo rampante en la IA. La tecnología se basa en datos recopilados y etiquetados por humanos, a menudo hombres que pueden aportar sus propias suposiciones, perspectivas y sesgos conservadores al trabajo con ellos.

Este tipo de sesgo es dañino porque, entre otras cosas, lleva a que más fotos sean "prohibidas". Esto es cuando una plataforma de redes sociales limita el alcance o la visibilidad de una publicación en las redes sociales. Shadowbanning difiere del bloqueo porque cuando se bloquea una publicación, se notifica al usuario, mientras que si se bloquea una publicación, el usuario no lo sabe.

Cuando los criterios para la prohibición de sombras están determinados por un algoritmo de IA sesgado, conduce a que las fotos de mujeres que realizan actividades cotidianas se eliminen sin su conocimiento debido a informes falsos de indecencia.

The Guardian realizó una prueba de LinkedIn usando dos fotos que mostraban tanto a mujeres como a hombres en ropa interior, y la herramienta de Microsoft clasificó la imagen que mostraba a dos mujeres como atrevidas y le otorgó una puntuación del 96 %. La imagen con los hombres se clasificó como no racista con una puntuación del 14%.

En consecuencia, la foto de la mujer recibió ocho visitas en una hora y la foto de los hombres recibió 655 visitas.

Shadowbanning es especialmente dañino para los creadores de contenido de redes sociales que dependen de la audiencia. The Guardian habló con una fotógrafa llamada Bec Wood que documenta la lactancia, el embarazo y otros momentos que capturan la maternidad. Se ha visto obligada a censurar algunas de sus fotos para asegurarse de que no se consideren sexualmente explícitas y restringidas en Instagram.

The Guardian también habló con Carolina Are, una instructora de pole dance que descubrió que sus fotos no aparecen en la página de exploración de Instagram o bajo el hashtag # Fitness Femenino.

“Pero luego, si mirabas el hashtag #MaleFitness, todos eran tipos grasos y estaban bien”, dijo. “No fueron baneados en la sombra”.

Los usuarios de las redes sociales han rechazado durante mucho tiempo el sesgo de género en la moderación de contenido a través de movimientos como [Free the Nipple](https://www.nytimes.com/2019/11/22/arts/design/instagram-free-the-nipple .html). Sin embargo, la investigación sobre los algoritmos de moderación de contenido operados por IA ofrecidos por Microsoft, Amazon y Google presagia un mayor conjunto de problemas en el futuro para las mujeres en las redes sociales.

“Se les impone una desventaja”, dijo Leon Derczynski, profesor de informática en la Universidad de TI de Copenhague. “No tienen ninguna agencia en que esto suceda y tampoco están informados de lo que está sucediendo”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd