Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 754: Mujeres políticas en el Reino Unido habrían sido víctimas de supuesta pornografía deepfake

Traducido por IA
Descripción:
Traducido por IA
Políticas del Reino Unido, como Angela Rayner, Gillian Keegan, Penny Mordaunt, Priti Patel, Stella Creasy y Dehenna Davison, han sido objeto de pornografía deepfake no consentida, supuestamente generada por inteligencia artificial. Las imágenes, que según algunos relatos podrían haber circulado en línea durante un período prolongado, habrían causado angustia y, al menos en algunos casos, habrían provocado denuncias o la intervención de las fuerzas del orden.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developers y Unknown image generator developers developed an AI system deployed by Unknown deepfake creators, which harmed Stella Creasy , Priti Patel , Penny Mordaunt , Gillian Keegan , Dehenna Davison , Angela Rayner , Epistemic integrity , Women , Female politicians y Female politicians in the United Kingdom.
Sistemas de IA presuntamente implicados: Unknown deepfake technology y Unknown image generator technology

Estadísticas de incidentes

ID
754
Cantidad de informes
3
Fecha del Incidente
2024-07-01
Editores
Daniel Atherton
Applied Taxonomies
MIT

Clasificaciones de la Taxonomía MIT

Machine-Classified
Detalles de la Taxonomía

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

4.3. Fraud, scams, and targeted manipulation

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Malicious Actors & Misuse

Entity

Which, if any, entity is presented as the main cause of the risk
 

AI

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Informes del Incidente

Cronología de Informes

+1
British female politicians targeted by fake pornography
Debemos luchar contra el futuro de las deepfakesLos deepfakes están socavando la fe en la política
Loading...
British female politicians targeted by fake pornography

British female politicians targeted by fake pornography

theguardian.com

Loading...
Debemos luchar contra el futuro de las deepfakes

Debemos luchar contra el futuro de las deepfakes

newstatesman.com

Loading...
Los deepfakes están socavando la fe en la política

Los deepfakes están socavando la fe en la política

observer.co.uk

Loading...
British female politicians targeted by fake pornography
theguardian.com · 2024

British female politicians have become the victims of fake pornography, with some of their faces used in nude images created using artificial intelligence.

Political candidates targeted on one prominent fake pornography website include: the…

Loading...
Debemos luchar contra el futuro de las deepfakes
newstatesman.com · 2025
Traducido por IA

Penny Mordaunt se abrió paso a la fuerza en el imaginario colectivo británico al convertirse en la inesperada estrella revelación de la coronación del rey Carlos III en mayo de 2023. Habíamos perdido a una reina estoica; aquí estaba otra. M…

Loading...
Los deepfakes están socavando la fe en la política
observer.co.uk · 2026
Traducido por IA

En octubre, el diputado conservador George Freeman se vio bombardeado por mensajes de amigos y colegas que lo acusaban de traición. "Me insultaban, diciendo: 'Nunca pensé que nos harías esto'. No entendía qué había pasado", declaró.

"Entonc…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
Loading...
Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Jun 2020 · 12 informes
Loading...
Opaque Fraud Detection Algorithm by the UK’s Department of Work and Pensions Allegedly Discriminated against People with Disabilities

Opaque Fraud Detection Algorithm by the UK’s Department of Work and Pensions Allegedly Discriminated against People with Disabilities

Oct 2019 · 6 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
Loading...
Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Microsoft’s Algorithm Allegedly Selected Photo of the Wrong Mixed-Race Person Featured in a News Story

Jun 2020 · 12 informes
Loading...
Opaque Fraud Detection Algorithm by the UK’s Department of Work and Pensions Allegedly Discriminated against People with Disabilities

Opaque Fraud Detection Algorithm by the UK’s Department of Work and Pensions Allegedly Discriminated against People with Disabilities

Oct 2019 · 6 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc