Incidentes Asociados

"Vi una foto tuya desnuda".
Esas fueron las escalofriantes palabras que un niño le dijo a una niña de 14 años después de que ella llegara el primer día de clases de este año a España, informa el diario español [El País](https://english.elpais.com/international/2023 -09-18/en-españa-docenas-de-niñas-están-reportando-fotos-de-desnudos-generadas-por-ai-de-ellas-que-se-circulan-en-la-escuela-mi-corazón-se-detuvo-un-latido.html ). Desnudos falsos generados por IA de ella y otras compañeras de clase circulaban en línea en cuatro escuelas, avivando la desesperación entre las víctimas y sus padres. Incluso hubo un caso de presunto chantaje.
“Mamá, dicen que anda por ahí una foto mía desnuda”, le dijo la niña a su madre, según cita El País. “Que lo hicieron con una app de inteligencia artificial. Tengo miedo. Algunas chicas también lo han recibido”.
El caso desató una ola de indignación de los padres en la localidad de Almendralejo, y la Fiscalía de Menores local ahora está a cargo de la investigación, según el informe_,_ con 20 víctimas impactadas hasta el momento y un grupo de presuntos culpables detrás de los deepfakes ya identificados.
La aplicación deepfake que supuestamente utilizaron los culpables es de uso gratuito y accesible para cualquier persona con un teléfono inteligente: un uso distópico de la tecnología de inteligencia artificial que podría seguir causando caos en las escuelas y otros lugares.
falsificado
Una de las niñas, según El País, fue abordada en Instagram por un chico que le exigió dinero. Cuando ella lo rechazó, él le envió una foto falsa de sí misma desnuda.
A medida que la tecnología se vuelve más accesible, deberíamos esperar que este tipo de cosas sucedan cada vez más. Mientras tanto, en Estados Unidos, el FBI envió una advertencia a principios de este año sobre el uso de deepfakes para extorsión.
"El FBI continúa recibiendo informes de víctimas, incluidos niños menores y adultos sin su consentimiento, cuyas fotos o videos fueron alterados para darles contenido explícito", dijo la agencia en su comunicado.
Para detener esta marea, los fiscales generales de todos los estados de EE. UU. enviaron una carta al Congreso a principios de este mes, instando a una comisión y a tomar medidas contra el aumento de material de abuso sexual infantil (CSAM) generado por IA.
El Washington Post informó en junio que los expertos habían notado un aumento en la difusión de CSAM generado por IA, que ya está obstaculizando los esfuerzos para identificar a las numerosas víctimas.
Queda por ver si las próximas regulaciones ayudarán a prevenir la marea de imágenes deepfake profundamente perturbadoras, especialmente considerando la proliferación de [IA generativa de código abierto](https://techhq.com/2023/05/open-source-coders -have-generative-ai-now-and-it-could-change-everything/) y [cuánto tiempo les toma a los gobiernos](https://www.nbcnews.com/politics/congress/washington-struggling-catch- artificial-intelligence-rcna84489) para acordar una solución.