Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4820

Incidentes Asociados

Incidente 95811 Reportes
Europol Operation Cumberland Investigates at Least 273 Suspects in 19 Countries for AI-Generated Child Sexual Abuse Material

Loading...
La ofensiva mundial contra el material de abuso sexual infantil generado por inteligencia artificial da lugar a 25 arrestos
therecord.media · 2025

Más de dos docenas de presuntos miembros de un grupo criminal fueron arrestados recientemente por presuntamente distribuir imágenes sexuales de menores generadas por inteligencia artificial.

La “Operación Cumberland”, dirigida por las fuerzas de seguridad danesas y apoyada por agencias de otros 18 países, identificó a 273 sospechosos y se esperan más arrestos en las próximas semanas, según un comunicado de prensa de Europol. La operación también implicó 33 registros domiciliarios y 173 dispositivos electrónicos incautados hasta el momento.

El principal sospechoso, un ciudadano danés anónimo, fue arrestado en noviembre de 2024 por administrar una plataforma en línea que distribuía el material generado por IA. Los usuarios de todo el mundo pudieron pagar por el acceso a las imágenes y videos.

La operación es una de las primeras investigaciones que involucra material de abuso sexual infantil (CSAM) generado por IA, según Europol. Aunque no había víctimas reales representadas en los videos, los modelos de IA pueden alterar las imágenes genuinas y dificultar la identificación del material de origen.

“Estas imágenes generadas artificialmente son tan fáciles de crear que pueden ser producidas por personas con intenciones delictivas, incluso sin conocimientos técnicos sustanciales”, dijo la directora ejecutiva de Europol, Catherine De Bolle, en un comunicado. “Esto contribuye a la creciente prevalencia de material de abuso sexual infantil y, a medida que aumenta el volumen, se vuelve progresivamente más difícil para los investigadores identificar a los infractores o las víctimas”.

Como parte de la operación, Europol y sus socios planean lanzar una campaña en línea que destaque las consecuencias del uso de IA dirigida a las personas que compran contenido ilegal. También enviarán cartas de advertencia y realizarán llamadas telefónicas, una táctica de aplicación de la ley que implica llamar a la puerta de un sospechoso y pedirle que registre las instalaciones.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd