Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3427

Incidents associés

Incident 6047 Rapports
Quebec Man Sentenced for Having Used Deepfake Technology to Create Synthetic Child Pornography

Loading...
Un Québécois condamné à la prison pour avoir créé de la pornographie juvénile synthétique générée par l'IA
thestar.com · 2023

MONTRÉAL — Un Québécois a été condamné à plus de trois ans de prison pour avoir utilisé l'intelligence artificielle pour produire des vidéos synthétiques de pornographie juvénile.

Steven Larouche, 61 ans, de Sherbrooke, au Québec, a plaidé coupable d'avoir créé au moins sept vidéos avec la technologie dite deepfake, utilisée pour superposer le visage d'un individu sur le corps d'une autre personne. Il a également plaidé coupable de possession de centaines de milliers de fichiers informatiques pédopornographiques, pour lesquels il a été condamné à quatre ans et demi supplémentaires.

Le juge de la Cour provinciale Benoit Gagnon a écrit dans sa décision rendue plus tôt ce mois-ci qu'il croyait qu'il s'agissait du premier cas au pays impliquant des deepfakes de pornographie juvénile. Il s'est dit inquiet de ce qui se passerait lorsque les criminels utiliseraient la technologie pour mettre les visages d'enfants dont ils trouvent les images sur les réseaux sociaux sur des vidéos d'autres enfants agressés sexuellement.

"L'utilisation de technologies deepfake entre des mains criminelles est effrayante. Ce type de logiciel permet de commettre des crimes qui pourraient impliquer pratiquement tous les enfants de nos communautés", a écrit Gagnon dans la décision du 14 avril. "Un simple extrait vidéo d'un enfant disponible sur les réseaux sociaux, ou une vidéo d'enfants prise dans un lieu public, pourrait en faire des victimes potentielles de pédopornographie."

Gagnon a écrit que la création de nouvelles images d'abus sexuels encourage le marché de la pornographie juvénile, qui a soif de nouveauté, et met les enfants en danger en « alimentant les fantasmes qui incitent aux infractions sexuelles contre les enfants ».

Alors que les avocats de Larouche plaidaient pour une peine plus légère, car les enfants n'avaient pas été agressés lors de la production des vidéos, le juge a écrit que les enfants dont les corps apparaissaient dans les vidéos avaient encore une fois vu leur intégrité sexuelle violée.

De nombreuses images de pédopornographie comportent une empreinte numérique, permettant à la police de les identifier, a écrit le juge. En créant des images synthétiques, Larouche a rendu plus difficile pour la police d'arrêter la propagation du matériel illicite.

Larouche a également admis détenir plus de 545 000 fichiers informatiques contenant des images ou des vidéos d'abus sexuels sur des enfants, dont certains ont été mis à la disposition d'autres.

Parmi ces images figurait une série d'une fille victime de violence sur une période de sept ans, âgée de sept à 14 ans. Sur l'ordinateur de Larouche, la police a également trouvé des photos d'elle provenant de ses comptes de médias sociaux et des informations personnelles sur l'enfant, y compris son nom. vrai nom, la ville où elle habite et le nom de son école.

Au total, Gagnon a condamné Larouche à huit ans de prison. Avec un crédit pour le temps purgé, Larouche devra purger encore cinq ans et 11 mois.

La loi canadienne interdit toute représentation visuelle d'une personne âgée de moins de 18 ans se livrant à une activité sexuelle explicite.

Stephen Sauer, directeur de Cybertaide.ca, a déclaré que même s'il y a eu des cas antérieurs de personnes créant des images synthétiques d'abus sexuels sur des enfants de manière plus rudimentaire, comme avec Photoshop, ce C'est peut-être la première fois qu'une personne au Canada est condamnée pour avoir créé du matériel à l'aide de la technologie deepfake.

"Nous sommes presque dans une période sans précédent où n'importe quel enfant peut être blessé à cause de ce type de matériel. Vous pouvez donc récupérer n'importe quelle image en ligne et créer ce type d'imagerie et lui faire du mal de différentes manières", a-t-il déclaré dans une interview mercredi.

Les images synthétiques humilient non seulement les victimes, portant atteinte à leur dignité et à leur vie privée, mais les gens pourraient également rechercher ces enfants pour les agresser sexuellement. "Cela crée un risque pour la sécurité de cet enfant, car il y a des individus qui chercheront à identifier des individus dans des images d'abus sexuels", a-t-il déclaré.

Vasileia Karasavva, étudiante à la maîtrise en psychologie clinique à l'Université de la Colombie-Britannique qui a co-écrit un article de 2021 sur la menace de la pornographie deepfake, a déclaré que la barre technologique pour créer des vidéos avec cette technologie ne cesse de baisser.

La technologie est de plus en plus facile à utiliser et le nombre d'images nécessaires pour mettre le visage d'une personne dans une vidéo est également en baisse, a-t-elle déclaré mercredi dans une interview, ajoutant que les applications peuvent être utilisées pour extraire des images d'un individu de ses comptes de réseaux sociaux.

Elle a déclaré que la pornographie deepfake faisait deux victimes : la personne dont le corps apparaît dans la vidéo, ainsi que la personne dont le visage apparaît.

Bien qu'il existe peu de recherches sur l'impact spécifique de la pornographie deepfake sur les victimes, les recherches sur d'autres formes de violence sexuelle en ligne montrent qu'elles affectent souvent les victimes de la même manière que les agressions sexuelles en personne.

"Cette victimisation continue également. C'est très public. Très souvent, c'est très permanent, et la victime se sent très impuissante et impuissante dans cette situation", a-t-elle déclaré.

Ce rapport de La Presse Canadienne a été publié pour la première fois le 26 avril 2023.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd