Incidentes Asociados
Durante una reciente charla TED, la política norirlandesa Cara Hunter compartió su experiencia con un ataque deepfake que casi descarriló su campaña. En abril de 2022, alguien creó y compartió un video pornográfico falso de ella en WhatsApp. El video se difundió rápidamente por Irlanda del Norte y apareció solo tres semanas antes de que los votantes acudieran a las urnas.
"Aunque esta mujer del video no era yo, se parecía exactamente a mí. Se parecía muchísimo a mí. Se parecía mucho a mí", dijo Hunter durante su charla. Cuando se puso en contacto con la policía local, no pudieron ayudarla; simplemente no tenían la tecnología necesaria para rastrear de dónde provenía el video.
Las consecuencias fueron rápidas y brutales. Hunter recibió innumerables mensajes vulgares e incluso la gente comenzó a acosarla en la calle. En la comunidad unida de Irlanda del Norte de 1,8 millones de personas, el video se extendió como un reguero de pólvora, llegando al punto en que incluso sus propios familiares comenzaron a dudar de su versión de la historia.
Cuando la tecnología apunta a la democracia
El ataque pone de relieve una peligrosa intersección entre la tecnología y el acoso selectivo. "Este fue el momento en el que la misoginia se unió al mal uso de la tecnología, e incluso tuvo el potencial de afectar el resultado de una elección democrática", explicó Hunter.
El acoso no se detuvo con el video. Seis meses después, Hunter recibió 15 imágenes deepfake más generadas por IA que la mostraban en ropa interior. Todavía no sabe quién las creó y, en muchos lugares, hacer este tipo de deepfakes ni siquiera es ilegal, dice Hunter.
Para Hunter, estos ataques representan más que un simple acoso personal: son una amenaza directa a los sistemas democráticos. "Sin la verdad, la democracia se derrumba. La verdad nos permite tomar decisiones informadas, nos permite exigir responsabilidades a los líderes, lo cual es muy importante", dijo.
De cara al futuro, Hunter aboga por regulaciones más estrictas de la IA y quiere ver principios éticos integrados en la tecnología desde cero.
"Creo apasionadamente que la IA puede ser una tecnología humanista con valores humanos que complemente las vidas que vivimos para convertirnos en las mejores versiones de nosotros mismos", explicó. "Pero para lograrlo, creo que necesitamos incorporar ética a esta tecnología, eliminar prejuicios, instalar empatía y asegurarnos de que esté alineada con los valores y principios humanos".
Crear deepfakes convincentes es cada día más fácil
La experiencia de Hunter se suma a un patrón inquietante de ataques deepfake [que se dirigen abrumadoramente a mujeres] (https://verfassungsblog.de/deepfakes-ncid-ai-regulation/). El problema surgió por primera vez en 2017, cuando un usuario anónimo de Reddit comenzó a publicar videos pornográficos falsos de celebridades [bajo el nombre de usuario "deepfakes", que le da el nombre a la tecnología] (https://the-decoder.com/history-of-deepfakes/).
Desde entonces, crear deepfakes convincentes se ha vuelto cada vez más simple y accesible. Las víctimas ahora se extienden mucho más allá de las celebridades, incluso los menores se convierten en objetivos. El caso de Hunter muestra cómo esta tecnología puede usarse como arma para acosar e intimidar a las mujeres que ingresan a la esfera pública.