Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4168

Incidents associés

Incident 8125 Rapports
Deepfake Nudes Targeting Underage Female Students at Collège Béliveau in Winnipeg Shared Online

Loading...
Les Canadiens ont des options très limitées si de fausses photos explicites se retrouvent sur les réseaux sociaux
nationalpost.com · 2024

En décembre dernier, le Collège Béliveau, une école de Winnipeg, a envoyé des avis aux parents pour leur faire savoir qu’il enquêtait sur la diffusion en ligne d’images explicites d’élèves féminines. Les images originales avaient apparemment été récupérées sur des comptes de médias sociaux, puis trafiquées à l’aide d’IA pour les faire apparaître nues.

Et en avril dernier, un Québécois a été condamné à une peine de prison pour avoir créé de la pornographie juvénile synthétique générée par l’IA. Steven Larouche a plaidé coupable en avril d’avoir créé au moins sept vidéos à l’aide de la technologie dite deepfake, qui permet de superposer le visage d’une personne sur le corps d’une autre personne.

« L’utilisation de la technologie deepfake par des criminels est effrayante. Le type de logiciel permet de commettre des crimes qui pourraient impliquer pratiquement tous les enfants de nos communautés », a écrit le juge de la Cour provinciale Benoit Gagnon dans la décision du 14 avril. « Un simple extrait vidéo d’un enfant disponible sur les réseaux sociaux, ou une vidéo d’enfants prise dans un lieu public, pourrait les transformer en victimes potentielles de pornographie juvénile. »

S’adressant à 680 CJOB au sujet de l’affaire de Winnipeg, la policière Dani McKinnon a déclaré que son équipe enquêtait sur l’affaire, mais a ajouté que l’utilisation de l’IA ajoutait une nouvelle dimension à un vieux crime.

« Il y a déjà eu des problèmes avec… (des choses comme) la pornographie vengeresse ou la distribution d’images sans consentement », a-t-elle déclaré. « Mais il s’agissait de situations où des images réelles avaient été envoyées. Nous parlons maintenant d’images augmentées et modifiées à l’aide de la génération d’IA. » Elle a ajouté qu’il existe un écart entre ce que dit la loi et le fonctionnement de la technologie.

S’adressant à la CBC au sujet de l’affaire de l’école de Winnipeg, Maura Grossman, experte juridique et professeure-chercheuse à l’école d’informatique de l’Université de Waterloo, a déclaré : « C’est extrêmement difficile, et je pense que ce problème va empirer, au lieu de s’améliorer. »

Mme Grossman a vu le problème de près. Dans une autre interview, elle a déclaré au National Post : « J’ai eu un élève il y a plusieurs années qui a vécu cette situation. Il s’agissait d’images réelles… et de voir quelqu’un vivre cela… On panique parce qu’il se passe quelque chose sur lequel on n’a aucun contrôle. »

« Pour la personne moyenne, c’est comme si toute sa vie s’écroulait, et si elle vient d’une culture où ses parents ou elle-même ont honte de cela, cela peut avoir de terribles répercussions sur sa santé mentale. »

En janvier, la Colombie-Britannique est devenue la dernière province à adopter une loi visant à protéger les personnes contre le partage en ligne d’images intimes sans leur consentement. Mais la loi sur la protection des images intimes va au-delà de celles qui ne représentent que de la nudité, de la quasi-nudité ou des actes sexuels. Elle fait spécifiquement référence aux images modifiées numériquement, aux deepfakes et aux images générées par l’IA.

Des lois similaires existent déjà en Saskatchewan, au Nouveau-Brunswick et à l’Île-du-Prince-Édouard, tandis que la plupart des autres provinces ont des versions qui ne mentionnent pas explicitement les images modifiées ou générées. Mais Daniel Tsai affirme qu’aucune d’entre elles ne va assez loin pour faire face au rythme effréné des nouvelles technologies.

Tsai est professeur adjoint à l’Université de Toronto et à la School of Business de l’Université Queen’s, ancien avocat spécialisé en propriété intellectuelle et ancien conseiller politique principal du gouvernement fédéral. Il a déjà rédigé une disposition du Code criminel qui traitait de l’illégalité de l’utilisation d’une caméra vidéo dans une salle de cinéma – une mesure législative presque pittoresque comparée aux problèmes actuels de l’IA générative.

En termes simples, l’IA peut être utilisée pour générer une image à partir d’une simple invite textuelle (« Montrez-moi Taylor Swift sans vêtements »). Elle peut également prendre des images existantes et les modifier, en échangeant de manière transparente des visages, des corps et d’autres détails pour créer des images irréelles allant de relativement anodines (le pape dans une doudoune, par exemple) à vraiment horribles. Il existe même des programmes spécialisés dans la prise d’une image habillée et la faire paraître nue.

« C’est la nature de la technologie », explique Tsai. « Elle peut être utilisée pour le bien. Elle peut aussi être utilisée pour une destruction incroyable. C’est une indication de la perversité de l’esprit humain. »

La loi de la Colombie-Britannique et d’autres lois similaires permettent aux gens de s’adresser à un tribunal de résolution civile pour faire retirer des images intimes, qu’elles soient réelles ou fausses. Elle prévoit également des amendes pouvant atteindre 500 $ par jour pour les particuliers et 5 000 $ par jour pour les sites Web qui ne se conforment pas aux ordres de suppression de telles images.

« À certains égards, la Colombie-Britannique est en avance sur la concurrence », explique Tsai. « Mais il y a une petite lacune dans la loi. Il faut quand même obtenir une ordonnance du tribunal… et ensuite espérer que la personne et le site Web se conforment. »

Cela peut être particulièrement délicat si les auteurs se trouvent dans une autre province ou à l’étranger. « Et s’ils sont en Russie ou en Corée du Nord et qu’ils veulent vous faire du mal ? Devinez quoi ? Vous ne pouvez pas faire grand-chose. Ils ne se soucieront pas d’une ordonnance d’un tribunal canadien. »

Même un pays plus proche et plus amical comme les États-Unis pourrait se révéler hors-la-loi, dit Tsai. « Si les images se trouvent sur un site tiers et que le site est basé aux États-Unis… ils ignoreraient en fait une ordonnance d’un tribunal de la Colombie-Britannique. Et ils sont autorisés à le faire en vertu de l’article 230 de la Loi sur la décence des communications. »

Grossman convient que l’application de la loi pourrait être difficile, mais elle adopte une vision plus optimiste.

« Je pense que si vous obtenez une ordonnance du tribunal, vous ne l’ignoreriez pas simplement », dit-elle. « Vous iriez au moins argumenter en disant « vous n’avez pas compétence sur moi » ou en invoquant un autre argument juridique. »

Elle ajoute : « De plus, voulez-vous que votre réputation soit endommagée si vous refusez de retirer ce genre de choses ? » Elle pointe du doigt la réaction des fans de Taylor Swift concernant les images deepfake explicites de la pop star qui ont récemment été partagées en ligne. « Mais cela fera probablement l’objet d’un procès », conclut-elle. »

Grossman est également satisfaite de l’étendue de la nouvelle législation de la Colombie-Britannique, qui couvre même les personnes décédées et la diffusion en direct.

Mais elle souligne qu’il existe des dispositions permettant aux mineurs d’accéder au système sans avoir à en parler à leurs parents, et que tous les cas ne nécessiteront pas une comparution devant un tribunal de la partie lésée. « Beaucoup de gens ne veulent pas aller au tribunal », dit-elle. « Ils veulent juste que cela disparaisse. »

Tsai explique en partie le manque de responsabilité juridique par la rapidité avec laquelle les nouvelles technologies d’IA ont été déployées.

« Cela illustre la façon dont nous nous sommes précipités pour essayer de tirer profit des nouvelles technologies sans vraiment comprendre les dangers et les implications sociales négatives », dit-il. Les entreprises technologiques sont « déterminées à créer une IA motivée par le profit et pas nécessairement par l’éthique ou la loi. »

Il ajoute : « Vous libérez la technologie et vous récoltez le chaos de la discorde sociale et les dommages qu’elle cause. »

Grossman a également eu une expérience personnelle de manipulation d’images non désirées, il y a quelques années, lorsque quelqu’un a pris une publicité pour ses services juridiques et en a fait une version malveillante.

Plus récemment, elle a pris les choses en main, pour ainsi dire. Lors d’une conférence organisée par l’American Bar Association, elle a trouvé en ligne des images de l’un des autres intervenants, un juge fédéral bien connu, et y a apporté deux modifications deepfake.

« L’une d’entre elles était médiocre », admet-elle. « Mais cela m’a pris deux minutes. »

Elle s’est ensuite rendue sur un site de clonage de voix et a copié sa propre voix new-yorkaise plutôt unique, puis l’a fait dire des choses insultantes à ses interlocuteurs. « Il serait très difficile de dire que ce n’était pas moi », dit-elle. « J’étais tout simplement stupéfaite de voir comment on peut faire ça en deux minutes gratuitement. »

Tsai voit un peu d’espoir, notamment dans certaines des réglementations qui sont en train d’être mises en ligne dans l’Union européenne, exigeant une plus grande transparence et une plus grande responsabilité de la part des entreprises technologiques.

« C’est un bon modèle à suivre pour le Canada et les États-Unis, mais le problème pour l’instant est que les chevaux sont déjà sortis de l’écurie et nous allons maintenant voir quel type de boue ils vont balancer dans l’air en écrasant nos normes sociales. »

La recommandation de Tsai est, d’une manière générale, de tout faire plus. Une réglementation plus volontaire de la part des grandes entreprises technologiques, comme l’ont fait Google, Microsoft, Meta et d’autres l’été dernier lors d’une réunion à la Maison-Blanche.

« Il faut des amendes massives contre les plateformes », poursuit-il. « Il faut mettre en place des régimes réglementaires. Augmenter les sanctions. Nous n’en sommes pas encore là. »

Et il craint que nous n’y soyons pas de sitôt. En dehors de la nouvelle législation de la Colombie-Britannique, les Canadiens qui cherchent à obtenir réparation pour des images partagées en ligne sans leur consentement peuvent s’appuyer sur d’anciennes lois contre la diffamation ou ce qu’on appelle le délit d’usurpation de personnalité.

« Mais au bout du compte, il est très coûteux, très stressant et très long de poursuivre ces plaintes », dit-il. « Le citoyen ordinaire peut tout simplement abandonner. La triste réalité est que nous devons voir quelque chose de grave se produire avant qu’un politicien ne prenne la chose au sérieux. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd