Incidentes Asociados

El campo de la política se ha vuelto aún más complicado para las mujeres líderes, con el auge de la IA generativa que plantea un riesgo aún mayor para las políticas mujeres que para los hombres, según un informe publicado esta semana.
El análisis, publicado por el grupo de expertos en desinformación American Sunlight Project (ASP) (https://www.americansunlight.org/) a través de The 19th (https://19thnews.org/2024/12/ai-sexually-explicit-deepfakes-target-women-congress/) el 11 de diciembre, descubrió más de 35.000 piezas de imágenes íntimas no consensuales (NCII) alteradas digitalmente que representan a 26 miembros del Congreso. Las cifras de ASP, cuando se desglosan, describen una cruda realidad para las víctimas de NCII: de esas miles de imágenes, la organización encontró 25 mujeres políticas representadas por IA. Solo un hombre fue el sujeto de dicho contenido.
A lo largo de todo el estudio, las mujeres miembros del Congreso tenían 70 veces más probabilidades que los hombres de ser objeto de imágenes sintéticas no consensuales y 1 de cada 6 congresistas (o el 16 por ciento) son víctimas de imágenes íntimas no consensuales.
Los líderes de todos los partidos políticos han intentado abordar el aumento de imágenes sintéticas generadas por IA y de imágenes NCII, pero han tardado en llegar a un consenso. En enero, un grupo bipartidista de senadores presentó la Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales de 2024 (Ley de Desafío), destinada a criminalizar el acto de difundir "falsificaciones digitales" sexualizadas no consensuales realizadas con IA. Fue aprobada en julio, pero todavía está siendo analizada por la Cámara.
La semana pasada, el Senado aprobó la ley Take It Down Act (https://cybernews.com/privacy/take-it-down-act-passes-senate-deepfake-revenge-porn-illegal/), presentada por el senador Ted Cruz en junio. El proyecto de ley también penaliza la publicación de deepfakes manipulados digitalmente en línea, pero también impone sanciones a las empresas que no eliminen ese contenido dentro de las 48 horas posteriores a su denuncia.
Pero la realidad de género de las imágenes potenciadas por IA no se puede subestimar, especialmente cuando las mujeres líderes se desenvuelven en un entorno en línea precario que las pone en mayor riesgo de abuso sexual. En agosto, el Centro para Contrarrestar el Odio Digital publicó un estudio sobre el aumento del odio en línea y la interacción negativa en los perfiles sociales de las mujeres políticas. Según un análisis de los perfiles de Instagram de 10 mujeres en el poder, uno de cada 25 comentarios tenía "altas probabilidades" de ser tóxico. Instagram no actuó en el 93 por ciento de los comentarios abusivos denunciados dirigidos a las mujeres políticas.
"Tenemos que tener en cuenta este nuevo entorno y el hecho de que Internet ha abierto tantos de estos daños que se dirigen desproporcionadamente a las mujeres y las comunidades marginadas", dijo la fundadora y autora del American Sunlight Project, Nina Jankowicz. "Mi esperanza es que los miembros se vean impulsados a actuar cuando reconozcan que no solo está afectando a las mujeres estadounidenses, sino que les está afectando a ellas. Está afectando a sus propios colegas. Y esto está sucediendo simplemente porque están en el ojo público".
La ASP informó a las oficinas de los políticos afectados, alertándolos sobre la NCII generada por IA. Las imágenes fueron eliminadas casi por completo después de la notificación, aunque la organización no recibió ningún comentario.
Si se han compartido imágenes íntimas sin su consentimiento, llame a la línea directa de la Iniciativa de Derechos Civiles Cibernéticos, disponible las 24 horas, los 7 días de la semana, al 844-878-2274 para obtener asistencia gratuita y confidencial. El sitio web de la CCRI también incluye información útil así como una lista de recursos internacionales.