Incidentes Asociados

Este octubre, los chicos de Westfield High School en Nueva Jersey comenzaron a actuar de forma "rara", [informó el Wall Street Journal](https://www.wsj.com/tech/fake-nudes-of-real-students-cause-an -alboroto-en-una-escuela-secundaria-de-nueva-jersey-df10f1bb). Pasaron cuatro días antes de que la escuela descubriera que los niños habían estado usando generadores de imágenes de inteligencia artificial para crear y compartir fotografías falsas de desnudos de compañeras de clase. Ahora, la policía está investigando el incidente, pero aparentemente están trabajando en la oscuridad, porque actualmente no tienen acceso a las imágenes que les ayuden a rastrear la fuente.
Según un correo electrónico que revisó el WSJ de la directora de Westfield High School, Mary Asfendis, la escuela "creyó" que las imágenes habían sido eliminadas y ya no estaban en circulación entre los estudiantes.
Aún no está claro cuántos estudiantes resultaron perjudicados. Un portavoz de las Escuelas Públicas de Westfield citó la confidencialidad de los estudiantes cuando se negó a informar al WSJ el número total de estudiantes involucrados o cuántos estudiantes, si los hubo, habían sido disciplinados. La escuela no había confirmado si el profesorado había revisado las imágenes, aparentemente solo notificó a las estudiantes supuestamente atacadas cuando fueron identificadas por niños que afirmaban haber visto las imágenes.
Tampoco está claro si lo que hicieron los niños fue ilegal. Actualmente no existe ninguna ley federal que restrinja la creación de imágenes sexuales falsas de personas reales, informó el WSJ, y en junio, expertos en seguridad infantil informaron que aparentemente no había forma de evitar que se compartieran miles de imágenes sexuales infantiles realistas pero falsas de IA. en línea](https://arstechnica.com/tech-policy/2023/06/thousands-of-realistic-but-fake-ai-child-sex-images-found-online-report-says/).
Esta semana, el presidente Joe Biden emitió una [orden ejecutiva](https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and -desarrollo-y-uso-confiable-de-inteligencia-artificial/) instando a los legisladores a aprobar protecciones para prevenir una amplia gama de daños, incluido impedir que la "IA generativa produzca material de abuso sexual infantil o imágenes íntimas no consensuadas de individuos reales". ". Biden pidió al secretario de Comercio, al secretario de Seguridad Nacional y a los jefes de otras agencias apropiadas que proporcionaran recomendaciones sobre "pruebas y salvaguardias contra" la producción de "material de abuso sexual infantil" e "imágenes íntimas no consensuadas de individuos reales (incluidas las representaciones digitales del cuerpo o partes del cuerpo de un individuo identificable), para IA generativa". Pero podrían pasar años antes de que esas protecciones finalmente se introduzcan, si es que alguna vez se introducen.
Algunos estados han intervenido cuando la ley federal está retrasada, como Virginia, California, Minnesota y Nueva York, que aprobaron leyes para prohibir la distribución de pornografía falsificada, informó el WSJ. Y Nueva Jersey podría ser la siguiente, según Jon Bramnick, senador estatal de Nueva Jersey, quien dijo al WSJ que estaría "investigando si existen leyes estatales o proyectos de ley pendientes que criminalizarían la creación y el intercambio de" IA falsificadas. desnudos. Y si no logra encontrar ninguna ley de ese tipo, Bramnick dijo que planea redactar una nueva ley.
Es posible que en este caso se apliquen otras leyes de Nueva Jersey, como las que prohíben el acoso o la distribución de materiales de abuso sexual infantil. En abril, [Nueva York condenó a Patrick Carey, de 22 años, a seis meses de cárcel](https://arstechnica.com/tech-policy/2023/06/thousands-of-realistic-but-fake -ai-child-sex-images-found-online-report-says/) y 10 años de libertad condicional "por compartir imágenes 'deepfaked' sexualmente explícitas de más de una docena de mujeres menores de edad en un sitio web pornográfico y publicar información de identificación personal de muchas de las mujeres, alentando a los usuarios del sitio web a acosarlas y amenazarlas con violencia sexual". Se descubrió que Carey había violado varias leyes que prohíben el acoso, el acecho, la puesta en peligro de niños y la "promoción del desempeño sexual infantil", pero en ese momento, la fiscal de distrito del condado, Anne T. Donnelly, reconoció que todavía faltaban leyes para proteger verdaderamente Víctimas del porno deepfake.
"El estado de Nueva York actualmente carece de estatutos penales adecuados para proteger a las víctimas de pornografía 'deepfake', tanto adultos como niños", dijo Donnelly.
Sorprendentemente, Nueva York actuó rápidamente para cerrar esa brecha, aprobando una [ley](https://nyassembly.gov/leg/?default_fld=%0D%0A&leg_video=&bn=S01042&term=2023&Summary=Y&Actions=Y&Floor%26nbspVotes=Y&Memo=Y&Text =Y) el mes pasado que prohibió la pornografía de venganza generada por IA, y parece que Bramnick acordó esta semana que Nueva Jersey debería ser el próximo en fortalecer sus leyes.
"Esto tiene que ser un delito grave en Nueva Jersey", dijo Bramnick.
Hasta que se fortalezcan las leyes, Bramnick ha pedido al fiscal del condado de Union que averigüe qué ocurrió en la escuela secundaria Westfield, y la policía estatal todavía está investigando. La alcaldesa de Westfield, Shelley Brindle, ha alentado a más víctimas a hablar y presentar informes a la policía.
Los estudiantes atacados siguen asustados
Algunas de las niñas objetivo dijeron al WSJ que no se sentían cómodas asistiendo a la escuela con los niños que creaban las imágenes. También temen que las imágenes puedan reaparecer en el futuro y causar más daño, ya sea a nivel profesional, académico o social. Otros han dicho que la experiencia ha cambiado su forma de pensar acerca de publicar en línea.
El año pasado, Ars advirtió que los generadores de imágenes de IA se han vuelto tan sofisticados que [entrenar a la IA para crear deepfakes realistas ahora es más fácil que nunca](https://arstechnica.com/information-technology/2022/12/thanks-to-ai- probablemente sea hora de sacar tus fotos de Internet /). Algunas herramientas de imágenes, como DALL-E de OpenAI o Firefly de Adobe, señaló el informe del WSJ, tienen configuraciones de moderación para evitar que los usuarios creen imágenes pornográficas. Sin embargo, incluso los mejores filtros son difíciles, si no "imposibles", de aplicar, dijeron los expertos al WSJ, y existe tecnología para intercambiar caras o quitarse la ropa si alguien que busca crear deepfakes está lo suficientemente motivado y es inteligente como para combinar diferentes tecnologías.
La empresa de detección de imágenes Sensity AI dijo al WSJ que más del 90 por ciento de las imágenes falsas en línea son pornográficas. A medida que los generadores de imágenes se vuelven más comunes, el riesgo de que se difundan más imágenes falsas parece aumentar.
Para las estudiantes de Westfield High School, la idea de que sus compañeros de clase las atacarían es más "espeluznante" que la vaga idea de que "hay tipos espeluznantes por ahí", informó el WSJ. Hasta que se resuelva el asunto en la ciudad de Nueva Jersey, las niñas planean seguir abogando por las víctimas, y su directora, Asfendis, ha prometido crear conciencia en el campus sobre cómo utilizar las nuevas tecnologías de manera responsable.
"Este es un incidente muy grave", escribió Asfendis en un correo electrónico a los padres. “Las nuevas tecnologías han hecho posible falsificar imágenes y los estudiantes necesitan conocer el impacto y el daño que esas acciones pueden causar a los demás”.