Incidents associés
:quality(70)/d1hfln2sfez66z.cloudfront.net/11-09-2023/t_6f2d9161f0dc4f479eebb782100221a1_name_7s_Issaquahe_HS_Fake_Nude_Pics_transfer_frame_508.jpeg)
ISSAQUAH, Washington — KIRO 7 a appris d'un parent d'un élève du lycée d'Issaquah que des images pornographiques générées par l'IA ont récemment circulé dans l'école. Nous avons également appris qu'un adolescent prenait des photos de plusieurs de ses camarades de classe, utilisait l'IA pour les modifier, créait des photos de nus, puis les envoyait dans l'école.
La parent qui nous a donné l’information souhaite garder l’anonymat mais nous a indiqué que l’école ne l’avait pas informée tout de suite que son enfant était victime.
Nous avons demandé au district scolaire pourquoi il n’avait pas informé les parents de cette situation.
Le district a répondu : « Nous avons informé toutes les familles des étudiants dont il a été confirmé qu'ils étaient impliqués dans l'incident. Nous sympathisons avec tous les étudiants et familles liés à cet incident.
Nous avons confirmé auprès de la police d'Issaquah qu'elle enquêtait.
«Je suis consternée», a déclaré Sherri Burgess, parent et grand-parent, lorsqu'elle a appris ce qui s'était passé. "Je pense que cela devrait avoir des conséquences énormes."
Et la plupart des parents seraient d’accord avec Burgess, cependant, l’avocate Debbie Silberman nous a dit que, malheureusement, ce n’est pas si simple.
"À l'heure actuelle, personne n'a encore été poursuivi pour avoir créé un deep fake dans l'intention de nuire à la fois à un adulte, à un adolescent ou à un enfant et la loi doit rattraper ce retard", a déclaré Silberman.
Elle a expliqué qu’il n’existe actuellement aucune loi étatique ou fédérale traitant de la création d’images profondément fausses.
"Ce qui rend cette histoire si déchirante, c'est qu'il s'agit de l'image de quelqu'un, de son identité, de sa réputation et de son avenir, et la loi doit rattraper son retard et s'attaquer à ce problème très rapidement", a déclaré Silberman.
Elle a déclaré que la situation serait similaire si les victimes intentaient une action civile.
"Je n'ai pas encore vu d'affaire civile visant quelqu'un qui abuse des images de quelqu'un pour créer une fausse photo nue", a-t-elle déclaré. « Il s’agit en réalité d’une autre forme de violence, de violence technologique qui est utilisée la majorité du temps contre les femmes. »