Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6888

Incidentes Asociados

Incidente 13152 Reportes
Purportedly AI-Generated Nude Images of Middle School Students Reportedly Circulated at Louisiana School

Loading...
El aumento del ciberacoso deepfake plantea un problema creciente para las escuelas
apnews.com · 2025

Las escuelas se enfrentan a un problema creciente: estudiantes utilizan inteligencia artificial para transformar imágenes inocentes de compañeros de clase en deepfakes sexualmente explícitos.

Las consecuencias de la difusión de fotos y vídeos manipulados pueden convertirse en una pesadilla para las víctimas.

El desafío para las escuelas se puso de manifiesto este otoño cuando imágenes de desnudos generadas por IA se extendieron por una escuela secundaria de Luisiana. Dos chicos fueron finalmente acusados, pero no antes de que una de las víctimas fuera expulsada por iniciar una pelea con un chico al que acusó de crear las imágenes de ella y sus amigos.

"Si bien la capacidad de alterar imágenes ha estado disponible durante décadas, el auge de la IA ha facilitado que cualquiera pueda alterar o crear dichas imágenes con poca o ninguna capacitación o experiencia", declaró Craig Webre, sheriff de la parroquia de Lafourche, en un comunicado de prensa. "Este incidente pone de relieve una grave preocupación que todos los padres deben abordar con sus hijos".

Aquí se presentan las conclusiones clave del artículo de AP sobre el auge de las imágenes de desnudos generadas por IA y cómo están respondiendo las escuelas.

Más estados aprueban leyes para abordar las deepfakes

Se cree que el procesamiento derivado de las deepfakes en las escuelas secundarias de Luisiana es el primero bajo la nueva ley estatal, según el senador estatal republicano Patrick Connick, autor de la legislación.

Esta ley es una de las muchas que se dirigen contra las deepfakes en todo el país. En 2025, al menos la mitad de los estados promulgaron legislación que aborda el uso de IA generativa para crear imágenes y sonidos aparentemente realistas, pero inventados, según la Conferencia Nacional de Legislaturas Estatales. Algunas de estas leyes abordan material simulado de abuso sexual infantil.

Estudiantes también han sido procesados en Florida y Pensilvania (https://apnews.com/article/artificial-intelligence-deepfake-lancaster-280a2959356c65e0c3d40e7e212b9db8) y expulsados en lugares como California (https://apnews.com/article/ai-deepfakes-children-abuse-7dcf5c566e2a297567f1e148ac2074a4). Un maestro de quinto grado en Texas también fue acusado de usar IA para crear pornografía infantil de sus estudiantes.

La creación de deepfakes se vuelve más fácil a medida que la tecnología evoluciona.

Los deepfakes comenzaron como una forma de humillar a oponentes políticos y jóvenes promesas. Hasta hace unos años, se necesitaban habilidades técnicas para que las imágenes fueran realistas, afirmó Sergio Alexander, investigador asociado de la Universidad Cristiana de Texas, quien ha escrito sobre el tema.

"Ahora se puede hacer en una aplicación, descargarlo en redes sociales y no se necesita ningún conocimiento técnico", afirmó.

Describió la magnitud del problema como asombrosa. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) indicó que la cantidad de imágenes de abuso sexual infantil generadas por IA reportadas a su línea de denuncia cibernética se disparó de 4700 en 2023 a 440 000 en tan solo el primer semestre de 2025.

Los expertos temen que las escuelas no estén haciendo lo suficiente.

Sameer Hinduja, codirector del Centro de Investigación sobre el Ciberacoso, recomienda que las escuelas actualicen sus políticas sobre deepfakes generados por IA y mejoren su explicación. De esta manera, dijo, "los estudiantes no piensan que el personal y los educadores son completamente ajenos, lo que podría hacerles sentir que pueden actuar con impunidad".

Añadió que muchos padres asumen que las escuelas están abordando el problema cuando no es así.

"Muchos de ellos son simplemente inconscientes e ignorantes", dijo Hinduja, quien también es profesor en la Escuela de Criminología y Justicia Penal de la Universidad Atlántica de Florida. "Oímos hablar del síndrome del avestruz, como si escondieran la cabeza en la arena, con la esperanza de que esto no esté sucediendo entre sus jóvenes".

El trauma de los deepfakes de IA puede ser particularmente dañino

Los deepfakes de IA se diferencian del acoso tradicional porque, en lugar de un mensaje o rumor desagradable, hay un video o una imagen que a menudo se viraliza y luego vuelve a aparecer, creando un ciclo de trauma, dijo Alexander.

Muchas víctimas se deprimen y se vuelven ansiosas, dijo.

"Literalmente se cierran porque da la sensación de que no hay manera de probar que esto no es real, porque sí parece 100% real", dijo.

Se anima a los padres a hablar con sus hijos.

Los padres pueden iniciar la conversación preguntando casualmente a sus hijos si han visto algún video falso gracioso en línea, dijo Alexander.

Tómense un momento para reírse de algunos, como el de Pie Grande persiguiendo a los excursionistas, dijo. A partir de ahí, los padres pueden preguntarles a sus hijos: "¿Han pensado en cómo sería si salieran en este video, incluso el gracioso?". Y luego pueden preguntar si algún compañero de clase ha hecho un video falso, incluso uno inofensivo.

"Basándome en las cifras, les garantizo que dirán que conocen a alguien", dijo.

Si los niños se encuentran con cosas como deepfakes, necesitan saber que pueden hablar con sus padres sin meterse en problemas, dijo Laura Tierney, fundadora y directora ejecutiva de The Social Institute, que educa a las personas sobre el uso responsable de las redes sociales y ha ayudado a las escuelas a desarrollar políticas. Dijo que muchos niños temen que sus padres reaccionen de forma exagerada o les quiten sus teléfonos.

Utiliza el acrónimo SHIELD como guía para saber cómo responder. La "S" significa "detenerse" y no reenviar. La "H" significa "reunirse" con un adulto de confianza. La "I" significa "informar" a las plataformas de redes sociales donde se publique la imagen. La "E" es una señal para recopilar "pruebas", como quién está difundiendo la imagen, pero no para descargar nada. La "L" significa "limitar" el acceso a las redes sociales. La "D" es un recordatorio para "orientar" a las víctimas a buscar ayuda.

"El hecho de que ese acrónimo tenga seis pasos, creo, demuestra que este problema es realmente complejo", dijo.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd