Incidentes Asociados

Más de dos docenas de miembros del Congreso han sido víctimas de deepfakes sexualmente explícitos, y una abrumadora mayoría de los afectados son mujeres, según un nuevo estudio que destaca la marcada disparidad de género en esta tecnología y los riesgos en evolución para la participación de las mujeres en la política y otras formas de compromiso cívico.
El American Sunlight Project (ASP), un grupo de expertos que investiga la desinformación y aboga por políticas que promuevan la democracia, publicó el miércoles hallazgos que identifican más de 35.000 menciones de imágenes íntimas no consensuales (NCII) que representan a 26 miembros del Congreso (25 mujeres y un hombre) que se encontraron recientemente en sitios web de deepfakes. La mayoría de las imágenes se eliminaron rápidamente cuando los investigadores compartieron sus hallazgos con los miembros del Congreso afectados.
“Tenemos que tener en cuenta este nuevo entorno y el hecho de que Internet ha abierto tantos de estos daños que se dirigen desproporcionadamente a las mujeres y las comunidades marginadas”, dijo Nina Jankowicz, experta en desinformación y acoso en línea que fundó The American Sunlight Project y es una de las autoras del estudio.
Las imágenes íntimas no consensuadas, también conocidas coloquialmente como pornografía deepfake (aunque los defensores prefieren la primera), se pueden crear a través de IA generativa o mediante la superposición de fotografías de rostros en medios de artistas adultos. Actualmente, existe una política limitada para restringir su creación y difusión.
ASP compartió los hallazgos, los primeros de su tipo, en exclusiva con The 19th. El grupo recopiló datos en parte desarrollando un motor de búsqueda personalizado para encontrar a los miembros del 118.º Congreso por nombre y apellido, abreviaturas o apodos en 11 sitios de deepfake conocidos. Ni la afiliación partidaria ni la ubicación geográfica tuvieron un impacto en la probabilidad de ser objeto de abuso, aunque los miembros más jóvenes tenían más probabilidades de ser víctimas. El factor más importante fue el género, ya que las mujeres miembros del Congreso tenían 70 veces más probabilidades que los hombres de ser objeto de abuso.
ASP no publicó los nombres de los legisladores que aparecen en las imágenes para evitar fomentar las búsquedas. Se comunicaron con las oficinas de todos los afectados para alertarlos y ofrecerles recursos sobre daños en línea y apoyo en materia de salud mental. Los autores del estudio señalan que, inmediatamente después, las imágenes dirigidas a la mayoría de los miembros se eliminaron por completo o casi por completo de los sitios, un hecho que no pueden explicar. Los investigadores han señalado que dichas eliminaciones no impiden que el material se comparta o se cargue nuevamente. En algunos casos que involucraban a legisladores, las páginas de resultados de búsqueda permanecieron indexadas en Google a pesar de que el contenido se eliminó en gran parte o en su totalidad.
“La eliminación puede ser una coincidencia. Independientemente de qué exactamente llevó a la eliminación de este contenido (ya sean cartas de 'cese y desista', reclamos de violación de derechos de autor u otro contacto con los sitios que albergan abusos de deepfake), esto pone de relieve una gran disparidad de privilegios”, según el estudio. “Las personas, en particular las mujeres, que carecen de los recursos otorgados a los miembros del Congreso, tendrían muy pocas probabilidades de lograr esta respuesta rápida de los creadores y distribuidores de NCII generados por IA si iniciaran una solicitud de eliminación por sí mismas”.
Según los hallazgos iniciales del estudio, casi el 16 por ciento de todas las mujeres que actualmente sirven en el Congreso (o aproximadamente 1 de cada 6 congresistas) son víctimas de imágenes íntimas no consensuales generadas por IA.
Nina Jankowicz, experta en desinformación y acoso en línea, es autora de un estudio reciente que identificó más de 35.000 menciones de imágenes íntimas no consensuales (NCII) que representan a 26 miembros del Congreso. (Bastien Inzurralde/AFP/Getty Images)
Jankowicz ha sido objeto de acoso y amenazas en línea por su trabajo nacional e internacional de desmantelamiento de la desinformación. También ha hablado públicamente sobre ser víctima de abuso de deepfake, un hecho que descubrió a través de una alerta de Google en 2023.
“Pueden obligarte a aparecer en estas situaciones íntimas comprometidas sin tu consentimiento, y esos videos, incluso si tuvieras que presentar una reclamación de derechos de autor contra el autor original, como en mi caso, proliferan en Internet sin tu control y sin algún tipo de consecuencia para las personas que están amplificando o creando pornografía deepfake”, dijo. “Eso sigue siendo un riesgo para cualquiera que esté en el ojo público, que participe en el discurso público, pero en particular para las mujeres y las mujeres de color”.
El abuso sexual basado en imágenes puede tener efectos devastadores en la salud mental de las víctimas, entre las que se incluyen personas comunes que no están involucradas en la política, incluidos los niños. El año pasado, hubo informes de niñas de secundaria que fueron blanco de abuso sexual basado en imágenes en estados como California, Nueva Jersey y Pensilvania. Las autoridades escolares han reaccionado de distintas maneras, aunque el FBI también ha emitido una nueva advertencia de que compartir imágenes de menores de edad es ilegal.
El impacto total de las deepfakes en la sociedad todavía está empezando a verse, pero la investigación ya muestra que el 41 por ciento de las mujeres de entre 18 y 29 años se autocensuran para evitar el acoso en línea.
“Es una amenaza enormemente poderosa para la democracia y la libertad de expresión, si tenemos a casi la mitad de la población silenciándose porque tienen miedo del acoso que podrían sufrir”, dijo Sophie Maddocks, directora de investigación del Centro para los Medios en Riesgo de la Universidad de Pensilvania.
No existe ninguna ley federal que establezca sanciones civiles o penales para quienes generen y distribuyan imágenes íntimas no consensuales generadas por IA. Alrededor de una docena de estados han promulgado leyes en los últimos años, aunque la mayoría incluye sanciones civiles, no penales.
Las imágenes íntimas no consensuales generadas por IA también plantean amenazas a la seguridad nacional al crear condiciones para el chantaje y las concesiones geopolíticas. Eso podría tener efectos dominó en los responsables políticos, independientemente de si son el objetivo directo de las imágenes.
“Mi esperanza es que los miembros se vean obligados a actuar cuando reconozcan que no solo está afectando a las mujeres estadounidenses, sino que les está afectando a ellos”, dijo Jankowicz. “Está afectando a sus propios colegas. Y esto está sucediendo simplemente porque están en el ojo público”.
El abuso sexual basado en imágenes es un riesgo único para las mujeres que se postulan a un cargo. Susanna Gibson perdió por poco su competitiva carrera legislativa después de que un agente republicano compartiera grabaciones no consensuadas de transmisiones en vivo sexualmente explícitas en las que aparecía la demócrata de Virginia y su esposo con The Washington Post. En los meses posteriores a su derrota, Gibson le dijo a The 19th que escuchó a mujeres jóvenes a las que se les disuadió de postularse para un cargo por temor a que se usaran imágenes íntimas para acosarlas. Desde entonces, Gibson ha creado una organización sin fines de lucro dedicada a luchar contra el abuso sexual basado en imágenes y un comité de acción política para apoyar a las candidatas contra las violaciones de la privacidad íntima.
Nuestro periodismo sigue arraigado en las experiencias y necesidades de nuestra comunidad. Apoye a nuestra sala de redacción sin fines de lucro durante nuestra campaña de impacto de fin de año y su donación será igualada.
Maddocks ha estudiado cómo las mujeres que hablan en público tienen más probabilidades de sufrir violencia sexual digital.
“Tenemos este patrón mucho más antiguo, de ‘las mujeres deben ser vistas y no escuchadas’, que me hace pensar en los escritos e investigaciones de Mary Beard sobre esta idea de que la feminidad es antitética al discurso público. Entonces, cuando las mujeres hablan en público, es casi como, ‘OK. Es hora de avergonzarlas. Es hora de desnudarlas. Es hora de hacerlas volver a la casa. Es hora de avergonzarlas para que se callen’. Y ese silenciamiento y esa motivación de vergüenza… tenemos que entender eso para entender cómo se manifiesta este daño en relación con las congresistas”.
La ASP está alentando al Congreso a aprobar una legislación federal. La Ley de Interrumpir Imágenes Falsificadas Explícitas y Ediciones No Consensuales de 2024, también conocida como Ley DEFIANCE, permitiría a las personas demandar a cualquiera que cree, comparta o reciba dichas imágenes. La Ley Take It Down incluiría responsabilidad penal por dicha actividad y requeriría que las empresas de tecnología eliminen las deepfakes. Ambos proyectos de ley han sido aprobados por el Senado con apoyo bipartidista, pero tienen que abordar las preocupaciones sobre la libertad de expresión y las definiciones de daño, que son obstáculos típicos para la política tecnológica, en la Cámara.
"Sería un incumplimiento del deber por parte del Congreso dejar que esta sesión transcurra sin aprobar al menos uno de estos proyectos de ley", dijo Jankowicz. "Es una de las formas en que los estadounidenses reales están sintiendo el daño de la inteligencia artificial en este momento. No es un daño futuro. No es algo que tengamos que imaginar”.
A falta de acción del Congreso, la Casa Blanca ha colaborado con el sector privado para concebir soluciones creativas para frenar el abuso sexual basado en imágenes. Pero los críticos no son optimistas sobre la capacidad de las grandes tecnológicas para regularse a sí mismas, dada la historia de daños causados por sus plataformas.
“Es muy fácil para los perpetradores crear este contenido, y la señal no se dirige solo a la mujer individual a la que se dirige”, dijo Jankowicz. “Se dirige a las mujeres de todo el mundo y les dice: ‘Si das este paso, si alzas la voz, tendrás que afrontar las consecuencias’”.
Si has sido víctima de abuso sexual basado en imágenes, la Iniciativa de Derechos Civiles Cibernéticos mantiene una lista de recursos legales.