Incidentes Asociados
La Haya — Una campaña global ha dado lugar a al menos 25 detenciones por contenido de abuso sexual infantil generado por inteligencia artificial y distribuido en línea, dijo Europol el viernes.
"La Operación Cumberland ha sido uno de los primeros casos relacionados con material de abuso sexual infantil generado por inteligencia artificial, lo que lo convierte en un desafío excepcional para los investigadores debido a la falta de legislación nacional que aborde estos delitos", dijo la agencia policial europea con sede en La Haya en un comunicado.
La mayoría de los arrestos se realizaron el miércoles durante la operación mundial dirigida por la policía danesa, y en la que también participaron agencias policiales de la UE, Australia, Gran Bretaña, Canadá y Nueva Zelanda. Las agencias policiales estadounidenses no participaron en la operación, según Europol.
Esto siguió al arresto en noviembre pasado del principal sospechoso en el caso, un ciudadano danés que dirigía una plataforma en línea donde distribuía el material de inteligencia artificial que producía.
Después de un "pago simbólico en línea, los usuarios de todo el mundo pudieron obtener una contraseña para acceder a la plataforma y ver cómo se abusaba de los niños", dijo Europol.
La explotación sexual infantil en línea sigue siendo una de las manifestaciones más amenazantes del cibercrimen en la Unión Europea, advirtió la agencia.
"Sigue siendo una de las principales prioridades para las agencias policiales, que están lidiando con un volumen cada vez mayor de contenido ilegal", dijo, y agregó que se esperaban más arrestos a medida que avanzaba la investigación.
Aunque Europol afirmó que la Operación Cumberland tenía como objetivo una plataforma y personas que compartían contenido creado íntegramente con IA, también ha habido una preocupante proliferación de imágenes "deepfake" manipuladas por IA en línea, que a menudo utilizan imágenes de personas reales, incluidos niños, y pueden tener efectos devastadores en sus vidas.
Según un informe de Jim Axelrod de CBS News en diciembre que se centró en una niña que había sido objeto de ese tipo de abuso por parte de un compañero de clase, hubo más de 21.000 imágenes o vídeos pornográficos deepfake en línea durante 2023, un aumento de más del 460% con respecto al año anterior. El contenido manipulado ha proliferado en Internet mientras los legisladores de Estados Unidos y otros países se apresuran a ponerse al día con la nueva legislación para abordar el problema.
Hace apenas unas semanas, el Senado aprobó un proyecto de ley bipartidista llamado "TAKE IT DOWN Act" que, si se convierte en ley, penalizaría la "publicación de imágenes íntimas no consensuales (NCII), incluidas las NCII generadas por IA (o "pornografía de venganza deepfake"), y requiere que las redes sociales y sitios web similares implementen procedimientos para eliminar dicho contenido dentro de las 48 horas posteriores a la notificación de la víctima", según una descripción en el sitio web del Senado de los EE. UU.
En la actualidad, algunas plataformas de redes sociales parecen incapaces o no están dispuestas a tomar medidas enérgicas contra la difusión de contenido deepfake sexualizado generado por IA, incluidas imágenes falsas que representan a celebridades. A mediados de febrero, Meta, propietaria de Facebook e Instagram, dijo que había eliminado más de una docena de imágenes sexualizadas fraudulentas de actrices y deportistas famosas después de que una investigación de CBS News descubriera una alta prevalencia de imágenes deepfake manipuladas por IA en Facebook.
"Este es un desafío que afecta a toda la industria y estamos trabajando continuamente para mejorar nuestra tecnología de detección y aplicación de la ley", dijo la portavoz de Meta, Erin Logan, a CBS News en un comunicado enviado por correo electrónico en ese momento.