Incidents associés

Le Collège Béliveau fait face au côté obscur de l'intelligence artificielle après que des photos nues générées par l'IA d'élèves mineures ont été découvertes en circulation dans l'école de Winnipeg.
Un courriel envoyé aux parents jeudi après-midi indiquait que les responsables de l'école avaient appris tard lundi que des photos truquées d'élèves de sexe féminin de l'école d'immersion française de la 7e à la 12e année étaient partagées en ligne et que les responsables de l'école avaient contacté la police.
« Nous sommes reconnaissants et fiers des élèves qui se sont manifestés pour attirer notre attention », indique la lettre.
La mère d'une fille dont les photos modifiées figuraient parmi celles qui ont circulé a déclaré à CBC News qu'elle espérait que la personne responsable serait tenue responsable. Elle s'est demandé pourquoi les entreprises d'intelligence artificielle permettaient que cela se produise.
Un autre parent, qui a un fils en 12e année au Collège Béliveau, a déclaré qu'elle avait été choquée par la nouvelle.
« Je pense que c'est plus effrayant pour les filles que pour les garçons, c'est juste mon avis », a déclaré Noni Kopczewski.
« J'ai trois garçons, mais je pense que le meilleur conseil que je puisse donner à mes enfants est de toujours être respectueux. […] Mettez-vous à la place de quelqu'un d'autre. C'est blessant et les dommages que cela cause sont à long terme. »
Les responsables de l'école ne savent pas combien de photos ont été partagées ni combien de filles ont été victimes. (CBC)
Kopczewski a déclaré qu'il y avait eu des discussions sur l'intelligence artificielle dans sa famille, notamment sur les risques liés à son utilisation.
« Cela devient beaucoup plus effrayant là-bas, nous nous éduquons beaucoup plus », a-t-elle déclaré.
« Un territoire inconnu » : la police
L'école a déclaré que les photos originales semblent avoir été recueillies à partir de médias sociaux accessibles au public et ont ensuite été explicitement modifiées.
Elles n'ont pas précisé combien de photos avaient été partagées, ni combien de filles avaient été victimes.
L'école « mène une enquête pour mieux comprendre l'ampleur de ce qui s'est passé et les personnes impliquées », et les responsables « prennent les mesures nécessaires pour répondre aux actions des personnes identifiées qui ont partagé ces images », indique le courriel envoyé aux parents.
« Bien que nous ne puissions pas supposer que nous avons des preuves de toutes les photos truquées, nous contacterons directement les personnes qui s'occupent des élèves pour lesquels nous en avons. »
L'école, située dans le quartier de Windsor Park, compte un peu moins de 600 élèves, indique son site Web.
Les responsables de l'école ont également été en contact avec Cybertip.ca, une ligne de signalement des abus en ligne gérée par le Centre canadien de protection de l'enfance à Winnipeg.
Les images reçues par l'école seront téléchargées sur le Projet Arachnid de Cybertip, ce qui peut aider à les supprimer.
La gendarme Dani McKinnon a déclaré que l'unité de lutte contre l'exploitation du service de police mène une enquête, mais qu'il est encore trop tôt dans une enquête active pour fournir plus de détails.
« L'IA est une nouvelle partie nuancée et complexe de notre monde », a-t-elle déclaré. « C'est certainement une nouvelle forme de comportement subreptice. Nous sommes en territoire inconnu. »
Aucune accusation n'a été portée pour le moment.
« Ce problème va empirer »
Les responsables de l'école ont déclaré que des équipes de soutien sont disponibles pour tous les élèves directement ou indirectement touchés par ce qui s'est passé.
Du soutien et des ressources supplémentaires sont disponibles sur Cybertip.ca et Need Help Now, une autre ressource canadienne pour les jeunes et les familles, selon le courriel de l'école.
L'exploitation des jeunes par le biais d'images créées à leur insu dans des programmes de retouche photo, puis partagées en ligne, est un problème préoccupant depuis des années, a déclaré le directeur de Cybertip.
Mais « l'IA a vraiment accéléré ce phénomène », a déclaré Stephen Sauer.
Bien qu'il y ait eu des cas d'utilisation de l'IA pour créer du matériel pédopornographique au Canada, dont un au Québec, Sauer n'a pas connaissance d'un cas antérieur dans ce pays où des adolescents d'une école ont été victimisés par d'autres adolescents de cette manière.
On ne sait pas à ce stade si la personne responsable est un camarade de classe. La police et l'école n'ont pas fait de commentaires à ce sujet.
Sauer n'a pas non plus pu parler spécifiquement de l'enquête au Collège Béliveau, mais a déclaré que les personnes qui créent des images explicites ne comprennent souvent pas les conséquences et les impacts à long terme.
« Même si ce matériel est créé parce que les gens pensent que c'est drôle ou qu'ils pensent que c'est un [acte] légèrement malveillant… il peut toujours être considéré comme de la pornographie juvénile ou du matériel pédopornographique en vertu de la loi », a-t-il déclaré.
« Ce matériel peut revenir hanter la victime plus tard à d'autres étapes de sa vie s'il a été partagé en ligne avec des informations personnelles. »
Le projet Arachnid, un robot d'indexation qui analyse Internet à la recherche d'images connues d'abus sexuels sur mineurs et envoie des avis aux entreprises pour les supprimer, peut réduire la propagation de contenus d'abus sexuels sur mineurs en ligne, mais la clé est de les détecter rapidement avant qu'ils ne soient plus largement diffusés, a déclaré Sauer.
« Il n'existe certainement pas de solution miracle, mais ce qu'il fait, c'est qu'il envoie des avis aux entreprises pour les informer lorsque du contenu est publié sur leur service... afin qu'elles puissent garder leurs réseaux propres », a-t-il déclaré.
Maura Grossman affirme qu'il est devenu très facile de créer de fausses images, tandis que les contrôler est devenu très difficile. (Université de Waterloo)
Maura Grossman, professeure de recherche à l'école d'informatique de l'Université de Waterloo, qui étudie les implications dans le monde réel des images générées par l'IA, a également déclaré qu'il s'agirait du premier cas d'étudiants au Canada faisant de tels deepfakes d'autres étudiants.
Il y a eu quelques cas récents aux États-Unis, dans le New Jersey et à Seattle, « mais je n'avais pas entendu dire que cela était arrivé au Canada », a-t-elle déclaré.
« C'est plutôt alarmant et ce n'est pas difficile à faire, et vous pouvez le faire gratuitement. Il existe de nombreux sites en ligne. »
Bien que la possibilité d'échanger son visage sur d'autres corps ait déjà existé auparavant, la technologie était médiocre. Aujourd'hui, n'importe qui peut créer des images convaincantes, a déclaré Grossman.
La partie difficile maintenant est de comprendre comment contrôler cela.
« Vous avez affaire à des gens du monde entier. Il est très difficile d'obtenir la juridiction sur cette personne dans une affaire judiciaire », a-t-elle déclaré.
« C'est extrêmement difficile, et je pense simplement que ce problème va empirer, au lieu de s'améliorer. »