Incidente 597: Estudiantes de la escuela secundaria Westfield en Nueva Jersey fueron blanco de fotos de desnudos falsos.
Respondido
Descripción: En octubre de 2023, se crearon y compartieron imágenes falsas de desnudos de estudiantes en la escuela secundaria Westfield de Nueva Jersey. Un sistema presuntamente implicado en este incidente es la aplicación de deepfake Clothoff. Una víctima, Francesca Mani, y su madre, Dorota, comenzaron a abogar por leyes más estrictas después de que la respuesta de la escuela, según informes, dejara a los perpetradores sin responsabilidades. Desde el incidente, su defensa ha atraído la atención nacional, lo que ha llevado a viajes a Washington, D.C., y al apoyo bipartidista a una legislación que combate el contenido no consensuado generado por IA, a la vez que llama la atención sobre las deficiencias en las protecciones legales existentes.
Editor Notes: See also: Incident 799: Aledo High School Student Generates and Distributes Deepfake Nudes of Seven Female Classmates. This incident is similar in both its timing and its role in driving advocacy against the misuse of deepfake technology for nonconsensual abuse.
Herramientas
Nuevo InformeNueva RespuestaDescubrirVer Historial
El Monitor de Incidentes y Riesgos de IA de la OCDE (AIM) recopila y clasifica automáticamente incidentes y riesgos relacionados con la IA en tiempo real a partir de fuentes de noticias reputadas en todo el mundo.
Entidades
Ver todas las entidadesAlleged: Developers of Clothoff developed an AI system deployed by Unnamed male students, which harmed Unnamed female students y Francesca Mani.
Sistema de IA presuntamente implicado: Clothoff
Estadísticas de incidentes
ID
597
Cantidad de informes
57
Fecha del Incidente
2023-10-20
Editores
Daniel Atherton
Applied Taxonomies
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
4.3. Fraud, scams, and targeted manipulation
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Malicious Actors & Misuse
Entity
Which, if any, entity is presented as the main cause of the risk
Human
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional