Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3426

Incidentes Asociados

Incidente 6047 Reportes
Quebec Man Sentenced for Having Used Deepfake Technology to Create Synthetic Child Pornography

Hombre canadiense encarcelado por crear pornografía infantil con IA en el primer caso del país
petapixel.com · 2023

Un hombre en Quebec, Canadá, fue sentenciado a tres años de prisión por utilizar inteligencia artificial (IA) para generar imágenes de pornografía infantil, la primera sentencia de este tipo en el país.

Steven Larouche, de 61 años, se declaró culpable de crear al menos siete videos de pornografía infantil generados por IA, que superponen el rostro de un individuo al cuerpo de otra persona.

Larouche, de Sherbrooke, Quebec, también se declaró culpable de posesión de cientos de miles de archivos informáticos de pornografía infantil, por lo que fue condenado a cuatro años y medio más.

La ley canadiense prohíbe cualquier representación visual de alguien menor de 18 años involucrado en una actividad sexual explícita.

The Canadian Press informa que en su fallo, el tribunal provincial El juez Benoit Gagnon dijo que creía que este caso era el primero de este tipo en Canadá.

Gagnon expresó su preocupación de que futuros delincuentes utilicen la misma tecnología de inteligencia artificial para colocar los rostros de niños cuyas imágenes encuentran en las redes sociales en videos de otros niños que son agredidos sexualmente.

“El uso de tecnología deepfake en manos delictivas es escalofriante. Este tipo de software permite cometer delitos que podrían involucrar prácticamente a todos los niños de nuestras comunidades”, escribe Gagnon en su fallo que tuvo lugar el 14 de abril.

"Un simple extracto de un video de un niño disponible en las redes sociales, o un video de niños tomado en un lugar público, podría convertirlos en víctimas potenciales de pornografía infantil".

Si bien los abogados de Larouche abogaron por una sentencia más leve, ya que los niños no fueron agredidos cuando él produjo los videos, el juez escribió que los niños cuyos cuerpos aparecían en los videos vieron nuevamente violada su integridad sexual.

Muchas imágenes de pornografía infantil tienen una huella digital, lo que permite a la policía identificarlas, escribe el juez en su fallo. Al crear imágenes sintéticas, Larouche hizo más difícil para la policía detener la difusión de material ilícito.

En febrero, PetaPixel informó sobre un programador informático que fue [arrestado en España por crear imágenes de pornografía infantil con software de IA](https://petapixel.com/2023/02/21/pedophiles-are-using-ai-generators-to -crear-imágenes-de-abuso-infantil/). El arresto fue supuestamente el primero de este tipo en el país.

En los EE. UU., actualmente no existe una legislación federal que proteja contra el uso de imágenes de personas sin su consentimiento en pornografía deepfake o con cualquier tecnología asociada.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf