Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4105

Incidents associés

Incident 7975 Rapports
Teenager Makes Deepfake Pornography of 50 Girls at Bacchus Marsh Grammar School in Australia

Loading...
Bacchus Marsh Grammar : un écolier arrêté après que 50 étudiantes auraient été la cible d'un scandale de fausses photos explicites d'IA
theguardian.com · 2024

Un adolescent a été arrêté puis relâché après que de fausses images explicites, décrites comme « mutilées » et « incroyablement explicites », auraient circulé sur les réseaux sociaux, utilisant les portraits d’environ 50 étudiantes d’une école privée de la région de Victoria.

Le directeur de Bacchus Marsh Grammar, Andrew Neal, a déclaré à ABC qu’environ 50 filles avaient été ciblées.

Les images nues semblent avoir été créées à l’aide de l’intelligence artificielle et de photos des visages des filles prises sur les sites de réseaux sociaux, puis ont été diffusées en ligne.

« Les filles devraient pouvoir apprendre et vaquer à leurs occupations sans ce genre de bêtises », a déclaré Neal à ABC.

Une femme nommée Emily, mère d’une élève de Bacchus Marsh Grammar et thérapeute spécialisée dans les traumatismes, a déclaré avoir vu les photos lorsqu’elle est allée chercher sa fille de 16 ans après une soirée pyjama samedi soir.

Emily avait un seau dans la voiture pour sa fille qui avait « mal au ventre » sur le chemin du retour, a-t-elle déclaré à ABC Radio Melbourne mercredi.

« Elle était très bouleversée et vomissait. C’était incroyablement graphique. »

La réaction immédiate d’Emily a également été « d’être malade ».

« Je veux dire que ce sont des enfants… Les photos étaient mutilées et tellement graphiques. J’ai presque vomi quand je les ai vues. »

« Cinquante filles, c’est beaucoup. C’est vraiment dérangeant. »

Les comptes Instagram des victimes étaient privés, a déclaré Emily. Bien que sa fille n’apparaisse pas dans les images deepfake, « il y a juste ce sentiment de… est-ce que cela va se reproduire ? C’est très traumatisant. »

« Comment pouvons-nous les rassurer sur le fait qu’une fois les mesures mises en place, cela ne se reproduira plus ? »

Le directeur par intérim Kevin Richardson a déclaré dans un communiqué : « Bacchus Marsh Grammar prend cette affaire très au sérieux et a contacté la police de Victoria.

« Le bien-être des élèves de Bacchus Marsh Grammar et de leurs familles est d'une importance primordiale pour l'école et est pris en compte. Tous les élèves concernés bénéficient du soutien de notre personnel de bien-être. »

Richardson a déclaré que l'école n'avait pas été contactée par la police au sujet d'une personne arrêtée en relation avec cette affaire.

La police de Victoria a déclaré que les agents ont été informés qu'un certain nombre d'images ont été envoyées à une personne dans la région de Melton, qui se trouve à environ 15 minutes de route de Bacchus Marsh, via une plateforme en ligne le vendredi 7 juin.

La police a déclaré que l'adolescent avait été arrêté en relation avec l'incident, mais qu'il avait été libéré en attendant de plus amples informations.

« L'enquête est toujours en cours », a déclaré la police.

Cette décision intervient après qu’un étudiant du Salesian College, une école catholique pour garçons située à Chadstone à Melbourne, a été expulsé après avoir utilisé l’intelligence artificielle pour produire des images explicites d’une enseignante.

En juin, le gouvernement fédéral a présenté une loi visant à interdire la création et le partage de pornographie deepfake dans le cadre de mesures visant à lutter contre la violence à l’égard des femmes.

Mais le sénateur national Matt Canavan a déclaré qu’il existait un problème culturel plus vaste qui devait être résolu.

« C’est un problème culturel dans toute notre société que, pour une raison ou une autre, les normes de comportement ne soient pas enseignées aux jeunes garçons », a-t-il déclaré à Nine mercredi matin.

« J’aimerais avoir les réponses – je ne les ai pas – mais je ne pense pas nécessairement que ce soit quelque chose qu’un gouvernement ou une loi puisse changer.

« Nous devons tous nous impliquer pour essayer de nous assurer que les jeunes garçons comprennent ce que signifie grandir et devenir un homme et vivre selon les normes que la société attend. »

La technologie a « suralimenté » le mauvais comportement des garçons, a déclaré Canavan.

La ministre de la Santé de Victoria, Mary-Anne Thomas, a déclaré qu'elle était « profondément bouleversée » à la lecture de l'incident.

« Ce type de comportement est absolument odieux. Les écoles devraient être des lieux sûrs pour que les enfants et les jeunes puissent apprendre », a-t-elle déclaré mercredi.

Bien que Thomas ait déclaré qu'elle ne voulait pas commenter spécifiquement l'incident, elle a dit espérer que cela serait un « signal d'alarme » sur les dangers des images sexuellement explicites générées par l'IA et des médias sociaux.

« Nous devons avoir des conversations directes et réelles avec les jeunes sur le respect », a-t-elle déclaré.

« Il est clair que les jeunes ont accès à des contenus sur Internet et sur les réseaux sociaux qui influencent leurs comportements d’une manière qui, nous en convenons tous, ne correspond pas aux attentes de la communauté – et qui va même au-delà, et qui cause en réalité un réel préjudice à d’autres jeunes. »

Les abus basés sur des images, y compris les deepfakes, peuvent être signalés à eSafety](https://www.esafety.gov.au/), qui revendique « un taux de réussite de 90 % pour supprimer ce contenu choquant ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd