Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4576

Incidentes Asociados

Incidente 90318 Reportes
Northern Ireland MLA Cara Hunter Allegedly Targeted by Deepfake Pornography Ahead of May 2022 Assembly Election

Loading...
Pornografía deepfake ataca a políticos y muestra cómo la IA puede ser utilizada como arma para alterar elecciones
the-decoder.com · 2024

Durante una reciente charla TED, la política norirlandesa Cara Hunter compartió su experiencia con un ataque deepfake que casi descarriló su campaña. En abril de 2022, alguien creó y compartió un video pornográfico falso de ella en WhatsApp. El video se difundió rápidamente por Irlanda del Norte y apareció solo tres semanas antes de que los votantes acudieran a las urnas.

"Aunque esta mujer del video no era yo, se parecía exactamente a mí. Se parecía muchísimo a mí. Se parecía mucho a mí", dijo Hunter durante su charla. Cuando se puso en contacto con la policía local, no pudieron ayudarla; simplemente no tenían la tecnología necesaria para rastrear de dónde provenía el video.

Las consecuencias fueron rápidas y brutales. Hunter recibió innumerables mensajes vulgares e incluso la gente comenzó a acosarla en la calle. En la comunidad unida de Irlanda del Norte de 1,8 millones de personas, el video se extendió como un reguero de pólvora, llegando al punto en que incluso sus propios familiares comenzaron a dudar de su versión de la historia.

Cuando la tecnología apunta a la democracia

El ataque pone de relieve una peligrosa intersección entre la tecnología y el acoso selectivo. "Este fue el momento en el que la misoginia se unió al mal uso de la tecnología, e incluso tuvo el potencial de afectar el resultado de una elección democrática", explicó Hunter.

El acoso no se detuvo con el video. Seis meses después, Hunter recibió 15 imágenes deepfake más generadas por IA que la mostraban en ropa interior. Todavía no sabe quién las creó y, en muchos lugares, hacer este tipo de deepfakes ni siquiera es ilegal, dice Hunter.

Para Hunter, estos ataques representan más que un simple acoso personal: son una amenaza directa a los sistemas democráticos. "Sin la verdad, la democracia se derrumba. La verdad nos permite tomar decisiones informadas, nos permite exigir responsabilidades a los líderes, lo cual es muy importante", dijo.

De cara al futuro, Hunter aboga por regulaciones más estrictas de la IA y quiere ver principios éticos integrados en la tecnología desde cero.

"Creo apasionadamente que la IA puede ser una tecnología humanista con valores humanos que complemente las vidas que vivimos para convertirnos en las mejores versiones de nosotros mismos", explicó. "Pero para lograrlo, creo que necesitamos incorporar ética a esta tecnología, eliminar prejuicios, instalar empatía y asegurarnos de que esté alineada con los valores y principios humanos".

Crear deepfakes convincentes es cada día más fácil

La experiencia de Hunter se suma a un patrón inquietante de ataques deepfake [que se dirigen abrumadoramente a mujeres] (https://verfassungsblog.de/deepfakes-ncid-ai-regulation/). El problema surgió por primera vez en 2017, cuando un usuario anónimo de Reddit comenzó a publicar videos pornográficos falsos de celebridades [bajo el nombre de usuario "deepfakes", que le da el nombre a la tecnología] (https://the-decoder.com/history-of-deepfakes/).

Desde entonces, crear deepfakes convincentes se ha vuelto cada vez más simple y accesible. Las víctimas ahora se extienden mucho más allá de las celebridades, incluso los menores se convierten en objetivos. El caso de Hunter muestra cómo esta tecnología puede usarse como arma para acosar e intimidar a las mujeres que ingresan a la esfera pública.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd