Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3495

Incidents associés

Incident 6172 Rapports
Male student allegedly used AI to generate nude photos of female classmates at a high school in Issaquah, Washington

Loading...
Aucune accusation n'a été retenue puisque des photos nues d'étudiantes générées par l'IA circulent autour de l'école d'Issaquah.
kiro7.com · 2023

ISSAQUAH, Washington — KIRO 7 a appris d'un parent d'un élève du lycée d'Issaquah que des images pornographiques générées par l'IA ont récemment circulé dans l'école. Nous avons également appris qu'un adolescent prenait des photos de plusieurs de ses camarades de classe, utilisait l'IA pour les modifier, créait des photos de nus, puis les envoyait dans l'école.

La parent qui nous a donné l’information souhaite garder l’anonymat mais nous a indiqué que l’école ne l’avait pas informée tout de suite que son enfant était victime.

Nous avons demandé au district scolaire pourquoi il n’avait pas informé les parents de cette situation.

Le district a répondu : « Nous avons informé toutes les familles des étudiants dont il a été confirmé qu'ils étaient impliqués dans l'incident. Nous sympathisons avec tous les étudiants et familles liés à cet incident.

Nous avons confirmé auprès de la police d'Issaquah qu'elle enquêtait.

«Je suis consternée», a déclaré Sherri Burgess, parent et grand-parent, lorsqu'elle a appris ce qui s'était passé. "Je pense que cela devrait avoir des conséquences énormes."

Et la plupart des parents seraient d’accord avec Burgess, cependant, l’avocate Debbie Silberman nous a dit que, malheureusement, ce n’est pas si simple.

"À l'heure actuelle, personne n'a encore été poursuivi pour avoir créé un deep fake dans l'intention de nuire à la fois à un adulte, à un adolescent ou à un enfant et la loi doit rattraper ce retard", a déclaré Silberman.

Elle a expliqué qu’il n’existe actuellement aucune loi étatique ou fédérale traitant de la création d’images profondément fausses.

"Ce qui rend cette histoire si déchirante, c'est qu'il s'agit de l'image de quelqu'un, de son identité, de sa réputation et de son avenir, et la loi doit rattraper son retard et s'attaquer à ce problème très rapidement", a déclaré Silberman.

Elle a déclaré que la situation serait similaire si les victimes intentaient une action civile.

"Je n'ai pas encore vu d'affaire civile visant quelqu'un qui abuse des images de quelqu'un pour créer une fausse photo nue", a-t-elle déclaré. « Il s’agit en réalité d’une autre forme de violence, de violence technologique qui est utilisée la majorité du temps contre les femmes. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d37129b