Incidents associés

La police affirme qu'aucune accusation n'a été portée après une enquête sur des photos de filles mineures nues générées par l'IA qui ont circulé dans une école de Winnipeg à la fin de l'année dernière.
Les photos truquées d'élèves du Collège Béliveau, une école d'immersion française de la 7e à la 12e année dans le quartier de Windsor Park, ont été découvertes par les responsables de l'école après que des élèves se soient manifestés pour signaler que les images étaient partagées en ligne en décembre.
L'école a déclaré à l'époque que les photos originales semblaient avoir été recueillies à partir de médias sociaux accessibles au public, puis explicitement modifiées à l'aide de l'intelligence artificielle.
La police de Winnipeg a déclaré cette semaine que son enquête sur l'incident était terminée et qu'aucune accusation n'avait été portée.
Le porte-parole du Service de police de Winnipeg, l'agent Dani McKinnon, a déclaré qu'en règle générale, les accusations peuvent ne pas être portées pour un certain nombre de raisons, notamment les problèmes potentiels de preuve, le désir des victimes de faire avancer l'affaire, la probabilité d'une condamnation et les nuances des crimes liés à l'IA et de la loi.
« En fin de compte, nous comprenons que toutes les parties concernées sont satisfaites de cette décision finale », a déclaré McKinnon dans un courriel.
La division scolaire Louis-Riel, qui comprend le Collège Béliveau, n'a pas voulu dire combien de photos ont été partagées, combien de filles ont été victimes ou si la ou les personnes impliquées dans la création des images avaient été identifiées.
Suzie Dunn, professeure adjointe de droit à la Schulich School of Law de l'Université Dalhousie, a déclaré que l'affaire met en évidence une lacune dans la loi canadienne en ce qui concerne les deepfakes sexualisés, c'est-à-dire les images qui ont été trafiquées à l'aide de l'intelligence artificielle.
« Bon nombre des premières lois sur les images intimes ont été créées avant que les deepfakes ne soient disponibles au public, et beaucoup d'entre elles n'incluaient donc pas le terme "images modifiées" », a déclaré Dunn, dont les recherches examinent les lois et les politiques concernant la violence sexuelle facilitée par la technologie.
Dunn a déclaré qu'il serait possible de faire valoir que les lois canadiennes interdisant le partage d'images intimes sans consentement devraient également couvrir les deepfakes, mais elle n'a vu personne essayer cela jusqu'à présent, en partie parce que les incidents comme celui qui s'est produit au Collège Béliveau sont très rares.
Le seul cas similaire qu'elle a vu jusqu'à présent s'est produit au Québec l'année dernière, lorsqu'un homme de 61 ans a été condamné à plus de trois ans de prison pour avoir utilisé l'intelligence artificielle pour produire des vidéos synthétiques de pornographie juvénile.
Mais ces lois ne couvrent pas vraiment l'incident de Winnipeg, a-t-elle dit.
La division scolaire Louis-Riel n'a pas voulu dire combien de photos ont été partagées, combien de filles ont été victimes ou si la ou les personnes impliquées dans la création des images avaient été identifiées. (Evan Mitsui/CBC)
D'autres facteurs expliquant l'absence d'accusations pourraient inclure la possibilité que les responsables soient eux-mêmes mineurs, a déclaré Dunn — puisque la police peut souvent faire preuve de discrétion pour décider d'accuser des jeunes de crimes — ou la possibilité que la coopération de la victime ait été un défi.
Ce dernier point ne serait cependant pas nécessairement un facteur décisif dans une affaire comportant des preuves numériques comme des photos truquées, a-t-elle déclaré.
« J'espère que nous pourrons tirer des leçons » de cette affaire, selon un expert
La mère d'une fille dont les photos modifiées figuraient parmi celles qui ont circulé a déclaré qu'elle était déçue d'apprendre la mise à jour.
La mère — que CBC News ne nomme pas parce que cela pourrait permettre d'identifier sa fille — a déclaré qu'elle espère voir davantage d'attention portée à l'éducation des étudiants sur les effets du partage d'images intimes et modifiées afin d'éviter des cas similaires à l'avenir.
Kaitlynn Mendes, professeure agrégée de sociologie à l'Université Western et titulaire de la chaire de recherche du Canada sur les inégalités et le genre, a déclaré que le Manitoba fait partie des nombreuses provinces dont le programme scolaire ne reconnaît pas que la violence sexuelle peut se produire en ligne ou n'aborde pas les éventuelles conséquences juridiques du comportement en ligne.
« C’est vraiment déchirant d’entendre ce qui s’est passé au Manitoba, mais j’espère que nous pourrons en tirer des leçons et en profiter pour entamer ces conversations et aussi pour commencer à faire pression en faveur du changement », a déclaré Mendes, qui a récemment co-écrit un rapport sur le sujet, avec Dunn.
Elle a déclaré que cela signifie que les étudiants de la province sont « très probablement mal équipés » pour répondre à des situations comme celle du Collège Béliveau.
Kaitlynn Mendes est professeure agrégée de sociologie à l’Université Western et titulaire de la chaire de recherche du Canada sur les inégalités et le genre. (Prasanjeet Choudhury/CBC)
« Ils ne comprendront pas quels sont leurs droits. Ils ne sauront pas où ils peuvent aller pour obtenir de l'aide ou du soutien, si ou quand les choses tournent mal », a déclaré Mendes.
« Ce que je dirais aux enseignants, c'est que même si ces sujets ne font pas partie du programme officiel, il peut toujours y avoir de très bonnes occasions de parler aux jeunes de ce qui se passe. »
Dans une déclaration envoyée par courriel, la division scolaire Louis Riel a déclaré que l'incident a « souligné l'importance d'un apprentissage complet des relations et des comportements sûrs et sains en ligne ».
La division a déclaré qu'elle prévoyait de faire des présentations en classe sur l'utilisation responsable d'Internet et le consentement pour les élèves, et qu'elle prévoyait d'organiser des présentations pour les parents dans les semaines à venir.
Les responsables avaient précédemment déclaré que les images explicitement modifiées reçues par l'école seraient téléchargées sur le Projet Arachnid, un outil exploité par le Centre canadien de protection de l'enfance, basé à Winnipeg, qui peut aider à les supprimer.