Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4520

Incidentes Asociados

Incidente 90318 Reportes
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Loading...
Pornografía deepfake ataca a políticos y muestra cómo la IA puede ser utilizada como arma para alterar elecciones
the-decoder.com · 2024

Un ataque de pornografía deepfake contra la política norirlandesa Cara Hunter a pocas semanas de las elecciones muestra cómo se puede utilizar la IA para perturbar los procesos democráticos.

Durante una reciente charla TED, la política norirlandesa Cara Hunter compartió su experiencia con un ataque deepfake que casi hizo descarrilar su campaña. En abril de 2022, alguien creó y compartió un video pornográfico falso de ella en WhatsApp. El video se difundió rápidamente por toda Irlanda del Norte y apareció solo tres semanas antes de que los votantes acudieran a las urnas.

"Aunque esta mujer del video no era yo, se parecía exactamente a mí. Se parecía muchísimo a mí. Se parecía mucho a mí", dijo Hunter durante su charla. Cuando se puso en contacto con la policía local, no pudieron ayudarla; simplemente no tenían la tecnología necesaria para rastrear de dónde provenía el video.

Las consecuencias fueron rápidas y brutales. Hunter recibió innumerables mensajes vulgares y la gente incluso comenzó a acosarla en la calle. En la comunidad unida de Irlanda del Norte, compuesta por 1,8 millones de personas, el vídeo se propagó como un reguero de pólvora, llegando al punto en que incluso los miembros de su propia familia empezaron a dudar de su versión de los hechos.

Cuando la tecnología ataca a la democracia

El ataque pone de relieve una peligrosa intersección entre la tecnología y el acoso selectivo. "Este fue el momento en el que la misoginia se encuentra con el mal uso de la tecnología, e incluso tuvo el potencial de afectar el resultado de una elección democrática", explicó Hunter.

El acoso no se detuvo con el vídeo. Seis meses después, Hunter recibió otras 15 imágenes deepfake generadas por IA que la mostraban en ropa interior. Todavía no sabe quién las creó y, en muchos lugares, hacer este tipo de deepfakes ni siquiera es ilegal, dice Hunter.

Para Hunter, estos ataques representan más que un simple acoso personal: son una amenaza directa a los sistemas democráticos. "Sin la verdad, la democracia se derrumba. La verdad nos permite tomar decisiones informadas, nos permite exigir responsabilidades a los líderes, lo cual es muy importante", dijo.

De cara al futuro, Hunter aboga por unas normas de IA más estrictas y quiere que los principios éticos se incorporen a la tecnología desde el principio.

"Creo fervientemente que la IA puede ser una tecnología humanista con valores humanos que complementen las vidas que vivimos para convertirnos en las mejores versiones de nosotros mismos", explicó. "Pero para ello, creo que debemos incorporar la ética a esta tecnología, eliminar los prejuicios, instalar la empatía y asegurarnos de que esté alineada con los valores y principios humanos".

Crear deepfakes convincentes es cada día más fácil

La experiencia de Hunter se suma a un patrón inquietante de ataques deepfakes [que se dirigen abrumadoramente a las mujeres] (https://verfassungsblog.de/deepfakes-ncid-ai-regulation/). El problema surgió por primera vez en 2017, cuando un usuario anónimo de Reddit comenzó a publicar videos pornográficos falsos de celebridades [bajo el nombre de usuario "deepfakes", que le dio el nombre a la tecnología] (https://the-decoder.com/history-of-deepfakes/).

Desde entonces, [crear deepfakes convincentes se ha vuelto cada vez más simple y accesible] (https://the-decoder.com/san-francisco-sues-websites-over-non-consensual-ai-generated-deepfake-porn/). Las víctimas ahora se extienden mucho más allá de las celebridades, [incluso los menores se convierten en objetivos] (https://the-decoder.com/deepfake-nudes-parents-clueless-teachers-suspicious-students-split/). El caso de Hunter muestra cómo esta tecnología puede usarse como arma para acosar e intimidar a las mujeres que ingresan a la esfera pública.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd