Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3426

Incidents associés

Incident 6047 Rapports
Quebec Man Sentenced for Having Used Deepfake Technology to Create Synthetic Child Pornography

Un Canadien emprisonné pour avoir créé de la pornographie juvénile IA dans le cadre de la toute première affaire au pays
petapixel.com · 2023

Un homme du Québec, au Canada, a été condamné à trois ans de prison pour avoir utilisé l'intelligence artificielle (IA) pour générer des images de pornographie juvénile – la première décision du genre dans le pays.

Steven Larouche, 61 ans, a plaidé coupable d'avoir créé au moins sept vidéos deepfake de pornographie juvénile générées par l'IA, qui superposent le visage d'un individu sur le corps d'une autre personne.

Larouche, de Sherbrooke, au Québec, a également plaidé coupable de possession de centaines de milliers de fichiers informatiques de pornographie juvénile, pour laquelle il a été condamné à une peine supplémentaire de quatre ans et demi.

La loi canadienne interdit toute représentation visuelle d'une personne âgée de moins de 18 ans se livrant à une activité sexuelle explicite.

La Presse Canadienne rapporte que dans sa décision, la cour provinciale Le juge Benoit Gagnon a déclaré qu'il croyait que cette affaire était la première du genre au Canada.

Gagnon s'est dit préoccupé par le fait que les futurs criminels utiliseront la même technologie d'IA pour mettre les visages d'enfants dont ils trouvent les images sur les réseaux sociaux sur des vidéos d'autres enfants agressés sexuellement.

« L’utilisation de technologies deepfake entre des mains criminelles est effrayante. Ce type de logiciel permet de commettre des crimes qui pourraient impliquer pratiquement tous les enfants de nos communautés », écrit Gagnon dans sa décision du 14 avril.

« Un simple extrait vidéo d’un enfant disponible sur les réseaux sociaux, ou une vidéo d’enfants prise dans un lieu public, pourrait en faire des victimes potentielles de pédopornographie. »

Alors que les avocats de Larouche plaidaient pour une peine plus légère, puisque les enfants n’avaient pas été agressés lors de la production des vidéos, le juge a écrit que les enfants dont les corps apparaissaient dans les vidéos avaient encore une fois vu leur intégrité sexuelle violée.

De nombreuses images de pédopornographie comportent une empreinte numérique, permettant à la police de les identifier, écrit le juge dans son jugement. En créant des images synthétiques, Larouche a rendu plus difficile pour la police de stopper la diffusion de matériel illicite.

En février, PetaPixel a fait état d'un programmeur informatique qui avait été [arrêté en Espagne pour avoir créé des images pédopornographiques avec un logiciel d'IA](https://petapixel.com/2023/02/21/pedophiles-are-using-ai-generators-to -create-child-abuse-images/). Cette arrestation serait la première du genre dans le pays.

Aux États-Unis, il n’existe actuellement aucune législation fédérale pour protéger contre l’utilisation d’images de personnes sans leur consentement dans du porno deepfake ou avec toute technologie associée.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf