Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1013: Un hombre de Essex fue condenado a cinco años de prisión por generar y compartir pornografía deepfake de al menos 20 mujeres y un menor.

Traducido por IA
Descripción:
Traducido por IA
Entre marzo de 2023 y mayo de 2024, Brandon Tyler, de Essex, utilizó IA para generar pornografía deepfake explícita de al menos 20 mujeres que conocía personalmente, incluida una joven de 16 años. Manipuló sus fotos en redes sociales y las compartió, junto con sus datos personales, en foros en línea que promovían la violencia sexual. Fue condenado a cinco años de prisión en abril de 2025 en virtud de la legislación penal del Reino Unido que prohíbe compartir deepfakes sexualmente explícitos, en lo que constituye uno de los primeros procesos judiciales importantes de este tipo.
Editor Notes: Notes on the timeline: Brandon Tyler's actions reportedly began sometime in March 2023 and continued until May 2024, which is when he was arrested. He was sentenced on April 4, 2025 (which is the incident date selected for this incident ID). It is also the date when reporting seemingly emerged for this incident.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
 

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer developed an AI system deployed by Brandon Tyler, which harmed Victims of Brandon Tyler y General public.
Sistema de IA presuntamente implicado: Unknown deepfake technology apps

Estadísticas de incidentes

ID
1013
Cantidad de informes
1
Fecha del Incidente
2025-04-04
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
Hombre encarcelado por usar inteligencia artificial para crear pornografía deepfake
Hombre encarcelado por usar inteligencia artificial para crear pornografía deepfake

Hombre encarcelado por usar inteligencia artificial para crear pornografía deepfake

bbc.com

Hombre encarcelado por usar inteligencia artificial para crear pornografía deepfake
bbc.com · 2025
Traducido por IA

Un pervertido en línea que utilizó inteligencia artificial (IA) para crear pornografía deepfake de mujeres que conocía ha sido encarcelado durante cinco años.

Brandon Tyler, de 26 años, manipuló imágenes de redes sociales y las publicó en u…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 informe
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 informes
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 informe
Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 informes

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178