Incidentes Asociados
Este informe tiene más detalles relacionados con el incidente 799, pero comienza haciendo referencia también a este incidente.
En febrero, el departamento de policía de Beverly Hills investigó a los estudiantes de la escuela secundaria Beverly Vista por crear fotografías falsas de desnudos de sus compañeros de clase. Los funcionarios de la escuela y del distrito expresaron su conocimiento de las "fotografías de desnudos generadas por inteligencia artificial".
Los deepfakes (https://www.bbc.co.uk/newsround/69009887#:~:text=Los deepfakes pueden usarse para engañar a la gente) son imágenes, vídeos y clips de audio generados por inteligencia artificial que representan a personas reales o inexistentes. Estas imágenes producidas por IA se utilizan para difundir información errónea, especialmente sobre celebridades.
Elliston Berry, una joven de 15 años de Aledo, Texas, encontró fotos falsas de ella y sus amigas desnudas publicadas en las redes sociales. "Me desperté con muchos, muchos mensajes de texto de mis amigos diciéndome que había imágenes mías circulando", dijo Elliston.
En los últimos años, el aumento de desnudos falsos entre los adultos jóvenes se ha convertido en un problema alarmante. Ha habido numerosos incidentes en todo el país sobre adolescentes que crean contenido sexual falso para sus compañeros utilizando inteligencia artificial como herramienta de acoso.
"Fue muy realista. Es pornografía infantil", dijo la madre de Elliston, Anna McAdams en una entrevista con WFAA. "Realmente no podíamos cuidarla. En ese momento, estábamos indefensos... cada vez salían más fotos durante el primer día y el segundo".
El contenido sexual falso perjudica desproporcionadamente a las niñas, que representan el 90% de las víctimas de las falsificaciones profundas. Las falsificaciones profundas también pueden apuntar a grupos históricamente marginados, como un estudiante en Nueva York que hizo un video artificial de su director gritando insultos racistas y amenazando con lastimar a estudiantes de color. La violación de la reputación y la privacidad puede desencadenar graves problemas en la salud mental de los estudiantes (https://timesofindia.indiatimes.com/life-style/parenting/moments/how-social-media-scandals-like-deepfake-impact-minors-and-students-mental-health/articleshow/105168380.cms#), lo que hace que se sientan inseguros ante los demás y en los entornos escolares. Los ataques basados en la identidad hacen que los estudiantes se sientan humillados y distanciados de sí mismos.
En algunos estados se han implementado regulaciones para abordar el acoso mediante imágenes deepfake.
En junio, el senador de Texas Ted Cruz presentó la Ley de Herramientas para Abordar la Explotación Conocida mediante la Inmovilización de Deepfakes Tecnológicos en Sitios Web y Redes (Take It Down), que ilegaliza la publicación de imágenes pornográficas artificiales y realistas. Otros estados, como Mississippi, Luisiana, Dakota del Sur y Nuevo México, también aprobaron proyectos de ley para poner fin a la pornografía vengativa.
En 2019, el Congreso aprobó la Ley de Informe de Deepfakes, que exige que las empresas tecnológicas estadounidenses informen sobre las falsificaciones digitales. La Cámara también presentó la Ley de Responsabilidad por los Deepfakes dedicada a proporcionar recursos útiles para las víctimas de los Deepfakes. También se han aprobado otros proyectos de ley federales para mitigar las influencias de las imágenes artificiales, pero no hay leyes federales oficiales que prohíban o regulen los Deepfakes.
Antes de que el problema de la pornografía Deepfake pueda regularse de manera eficiente, los adolescentes están sujetos al peligro de la nueva forma de acoso cibernético y las víctimas quedan marcadas por sus experiencias.
"Yo era estudiante de primer año y tenía sólo catorce años", dijo Elliston. "Incluso hoy, todavía tengo miedo de que esas imágenes vuelvan a aparecer".