Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3428

Incidentes Asociados

Incidente 6047 Reportes
Quebec Man Sentenced for Having Used Deepfake Technology to Create Synthetic Child Pornography

¡Los videos deepfake de pornografía infantil generados por IA envían ondas de choque! La creación del primer porno infantil con IA del país lleva a un hombre de Quebec a la cárcel
latestly.com · 2023

(ADVERTENCIA: Este artículo contiene detalles de abuso. Las imágenes de abuso sexual infantil son ilegales. Si ve imágenes o videos sexualmente explícitos de menores en la web, denúncielo)

A medida que la IA se apodera del mundo, sus repercusiones ya han comenzado a salir a la luz. Steven Larouche, de 61 años, se declaró culpable de crear al menos siete películas pornográficas infantiles generadas por IA, en las que el rostro de una persona se superpone al cuerpo de otra. Larouche, originario de Sherbrooke, Quebec, también admitió tener miles de archivos informáticos que contenían pornografía infantil; por este delito recibió cuatro años y medio adicionales de prisión. La ley canadiense prohíbe cualquier representación visual de una persona menor de 18 años participando en una conducta sexual explícita. [La pornografía deepfake podría ser un problema creciente en medio de la carrera por la IA.](https://www.latestly.com/agency-news/world-news-deepfake-porn-could-be-a-growing-problem-amid- ai-race-5063023.html)

Según The Canadian Press, el juez del tribunal provincial Benoit Gagnon declaró en su decisión que pensaba que este caso era el primero de este tipo en Canadá. Gagnon expresó su preocupación de que futuros delincuentes utilicen la misma tecnología de inteligencia artificial para superponer grabaciones de otros niños agredidos sexualmente con los rostros de jóvenes cuyas fotografías localizan en las redes sociales. Aunque los abogados de Larouche argumentaron que una sentencia más leve era apropiada porque ningún niño resultó dañado en la producción de los videos, el juez dictaminó que los niños cuyos cuerpos fueron utilizados en los videos habían visto una vez más violada su integridad sexual.

“El uso de tecnología deepfake en manos delictivas es escalofriante. Este tipo de software permite cometer delitos que podrían involucrar prácticamente a todos los niños de nuestras comunidades”, escribe Gagnon en su fallo que tuvo lugar el 14 de abril. “Un simple extracto de un vídeo de un niño disponible en las redes sociales, o un vídeo de niños tomados en un lugar público, podrían convertirlos en víctimas potenciales de pornografía infantil”, añadió.

Según la orden del juez, muchas fotografías utilizadas en pornografía infantil tienen una huella digital que permite a las autoridades reconocerlas. Larouche hizo más difícil para las fuerzas del orden detener la difusión de material ilegal al producir fotografías falsas.

Actualmente no existe ninguna ley federal en los Estados Unidos que impida el uso de fotografías de personas en pornografía deepfake o cualquier tecnología relacionada sin su permiso. Según el juez, muchas fotografías de explotación sexual infantil tienen una huella digital que permite a los investigadores reconocerlas. Larouche hizo más difícil para las fuerzas del orden detener la difusión del material ilegal al producir fotografías sintéticas.

Larouche también reconoció tener más de 545.000 archivos informáticos, algunos de los cuales compartió con otros, que contenían fotografías o películas de agresión sexual infantil.

Estas imágenes incluían una serie de una niña que fue maltratada entre las edades de siete y catorce años durante el transcurso de siete años. La policía también descubrió imágenes de la joven en sus cuentas de redes sociales, así como datos personales sobre ella, incluido su nombre real, la ubicación de su casa y el nombre de su escuela.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf