Incident 597: Des étudiantes du lycée Westfield, dans le New Jersey, auraient été la cible de photos de nus deepfake.
Description: En octobre 2023, des images deepfakes d'élèves nues auraient été créées et diffusées au lycée Westfield, dans le New Jersey. L'application Clothoff serait impliquée dans cet incident. Une victime, Francesca Mani, et sa mère, Dorota, ont commencé à plaider pour un renforcement des lois après que la réponse de l'établissement aurait laissé les auteurs de ces actes hors de cause. Depuis l'incident, leur mobilisation a attiré l'attention nationale, ce qui a donné lieu à des déplacements à Washington et à un soutien bipartisan en faveur d'une législation ciblant les contenus non consensuels générés par l'IA, tout en soulignant les lacunes des protections juridiques existantes.
Editor Notes: See also: Incident 799: Aledo High School Student Generates and Distributes Deepfake Nudes of Seven Female Classmates. This incident is similar in both its timing and its role in driving advocacy against the misuse of deepfake technology for nonconsensual abuse.
Entités
Voir toutes les entitésAlleged: Developers of Clothoff developed an AI system deployed by Unnamed male students, which harmed Unnamed female students et Francesca Mani.
Système d'IA présumé impliqué: Clothoff
Statistiques d'incidents
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk