Incidentes Asociados

Los padres y estudiantes de Westfield High en Nueva Jersey están hablando después de que uno o varios estudiantes supuestamente usaron una [IA](https://globalnews.ca/ tag/ai) para crear imágenes de desnudos falsos utilizando los rostros de compañeras de clase y distribuirlas en un chat grupal.
Francesca Mani, de 14 años, es una de las más de 30 niñas que fueron víctimas del incidente, dice. En una entrevista televisada con CNN, pidió al gobierno de EE. UU. que [promulgue leyes para proteger a las víctimas de contenido generado por IA] (https://www.cnn.com/2023/11/04/us/new-jersey-high -escuela-deepfake-porn/index.html).
También afirmó que los miembros de la comunidad escolar [conocen al estudiante responsable] (https://www.cnn.com/videos/tech/2023/11/04/smr-ai-nudes-of-hs-students.cnn) por crear imágenes lascivas, pero aún no ha afrontado las consecuencias apropiadas.
“Muchas chicas no se sienten cómodas sabiendo que él camina por nuestros pasillos”, dijo Mani.
Westfield High declaró no pudo proporcionar detalles específicos sobre las acciones disciplinarias tomadas o el número de estudiantes involucrados, por razones de privacidad. El incidente supuestamente ocurrió durante las vacaciones de verano, pero la escuela no se enteró hasta el 20 de octubre.
Ese día, la directora de Westfield High School, Mary Asfendis, envió un correo electrónico a los padres sobre el “incidente muy grave”.
"Había una gran preocupación sobre quién tenía imágenes creadas de ellos y si se compartían", escribió Asfendis. "En este momento, creemos que todas las imágenes creadas han sido eliminadas y no están circulando".
Según el Wall Street Journal, que informó por primera vez sobre el incidente el sábado, las estudiantes se enteraron de las imágenes no consensuadas después de notar que sus compañeros varones en el grado 10 actuaban “raros” el 16 de octubre. Unos días después, un niño se adelantó y dijo que un compañero de clase había utilizó fotografías de estudiantes femeninas en las redes sociales para generar imágenes de desnudos falsos utilizando un sitio web impulsado por inteligencia artificial.
Un grupo de estudiantes denunció el asunto a los administradores de la escuela. El incidente dejó a muchos de ellos sintiéndose “humillados e impotentes”, informó el Journal.
Westfield High dijo que llevó a cabo una investigación sobre el incidente mientras colaboraba con la policía local. Se brindó asesoramiento a los estudiantes después de que el asunto salió a la luz.
El superintendente Raymond González afirmó que las escuelas de todas partes “están lidiando con los desafíos y el impacto de la inteligencia artificial y otras tecnologías disponibles para los estudiantes en cualquier momento y en cualquier lugar”.
“El Distrito de Escuelas Públicas de Westfield cuenta con medidas de seguridad para evitar que esto suceda en nuestra red y en los dispositivos proporcionados por la escuela. Seguimos fortaleciendo nuestros esfuerzos educando a nuestros estudiantes y estableciendo pautas claras para garantizar que estas nuevas tecnologías se utilicen de manera responsable en nuestras escuelas y más allá”, agregó.
Mani, estudiante de Westfield, cree que la policía local debería abordar el problema y que la escuela debería contribuir aún más a que los estudiantes se sientan cómodos caminando por los pasillos.
La madre de Mani dijo que está orgullosa de su hija por defenderse a sí misma y a otras niñas que han sido víctimas de contenido pornográfico deepfake.
"Creo que este tema es más complejo que solo Westfield High School, y este es nuestro momento y oportunidad de tratarlo como una plataforma de enseñanza, para arrojar luz sobre este importante tema", dijo Dorota Mani a CNN.
En los últimos años, a medida que la tecnología de inteligencia artificial se ha vuelto más accesible, la cantidad de imágenes y videos falsos en Internet se ha disparado.
Un informe de Sensity AI, una empresa que detecta y monitorea contenido generado por IA, encontró que el 96 por ciento de los videos deepfake en línea son pornográficos.
La compañía descubrió que se utilizó un robot impulsado por inteligencia artificial que "desnuda" a las personas para crear imágenes falsas de desnudos de casi 105.000 mujeres en un lapso de un año. El bot fue ampliamente compartido en la plataforma Telegram.
Alrededor del 70 por ciento de las imágenes creadas eran de particulares; en otras palabras, no celebridades o figuras públicas.
“Los deepfakes continúan representando una amenaza para las personas y las industrias, incluidos posibles impactos a gran escala en las naciones, los gobiernos, las empresas y la sociedad”, según un [informe reciente del Departamento de Seguridad Nacional] (https://www.dhs .gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf).
“Los expertos de diferentes disciplinas cuyos intereses de investigación se cruzan en los deepfakes tienden a estar de acuerdo en que la tecnología avanza rápidamente y el alto costo de producir contenido deepfake de alta calidad está disminuyendo. Como resultado, esperamos un panorama de amenazas emergentes en el que los ataques serán más fáciles y exitosos”, añade el informe.
Actualmente, [no hay leyes](https://www.cba.org/Sections/Privacy-and-Access/Resources/Resources/2023/PrivacyEssayWinner2023#:~:text=Unfortunately%2C%20Canada's%20%E2% 80%9CCriminal%20Code%E2%80%9D,up%20to%20five%20years'%20prisonment.) en el Código Penal de Canadá que prohíbe rotundamente la creación y distribución de contenido pornográfico deepfake. Sin embargo, existe una disposición que penaliza la pornografía de venganza o el intercambio no consensuado de imágenes íntimas.