Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6814

Incidentes Asociados

Incidente 79927 Reportes
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Su compañera de clase usó IA para crear imágenes deepfake de ella desnuda. Los expertos dicen que no es raro.
usatoday.com · 2025

Era la mañana siguiente a la celebración de bienvenida de Elliston Berry en octubre de 2023, cuando la estudiante de preparatoria del norte de Texas recibió un mensaje: imágenes suyas desnudas circulaban por la escuela.

Pero las imágenes no eran reales. Un compañero de clase había usado inteligencia artificial para crear deepfakes, editando con Photoshop un cuerpo desnudo en fotos del Instagram de Berry. Tenía 14 años en ese momento.

"Al despertar esa mañana, fue como si toda mi vida se pusiera patas arriba", dice la joven de 15 años. "Soy más que esas fotos. Pero en esos momentos, sentí que eso era todo lo que la gente veía".

Expertos en salud mental y ciberseguridad afirman que la experiencia de Berry es cada vez más común en la adolescencia.

Uno de cada ocho adolescentes de entre 13 y 17 años conoce personalmente a alguien que ha sido víctima de deepfakes de desnudos, según un nuevo informe de Thorn, una organización sin fines de lucro enfocada en la seguridad infantil en línea. El informe reveló que la tecnología de deepfakes de desnudos es cada vez más accesible para los adolescentes. El contenido de IA a menudo es indistinguible de las imágenes reales y se utiliza como herramienta de abuso y acoso que se dirige desproporcionadamente a adolescentes y mujeres.

El acoso con deepfakes sigue siendo acoso

La primera imagen se difundió el lunes, y para el martes había más. Un estudiante creó imágenes deepfakes de otras ocho chicas y las difundió a través de un alias anónimo de Snapchat, afirma Berry.

Ocurrió fuera de la escuela y no existía un manual de estrategias que los agentes pudieran seguir, lo que dejó a las chicas y a sus familias sin respuestas sobre quién era el agresor durante meses. Tres de las chicas afectadas se cambiaron de escuela, recuerda.

Todos los días, Berry entraba a la escuela con ansiedad por encontrarse con el acosador desconocido antes de clase o de camino al entrenamiento de voleibol. Solía ser de las estudiantes que chocaban las manos con sus amigas en el pasillo y charlaban con la gente durante los descansos, pero en los meses posteriores al incidente, no quería salir de su habitación. “La angustia mental que sentía y el cambio en su personalidad fueron muy perturbadores”, afirma Anna McAdams, madre de Berry. Ella vio cómo su hija pasaba de ser una persona extrovertida y alegre a una introvertida.

El impacto del abuso a través de la tecnología refleja el de los casos tradicionales de agresión sexual: vergüenza, culpa, miedo a las repercusiones y posibles efectos a largo plazo en la salud mental, afirma Jennifer Simmons Kaleba, vicepresidenta de comunicaciones de la Red Nacional contra la Violación, el Abuso y el Incesto (RAINN).

Pero la naturaleza tecnológica de la explotación hace que el abuso parezca generalizado. No se sabe cuántas veces se compartieron las imágenes de Berry y sus amigas, ni si realmente cesaron.

“El daño es continuo, porque cada vez que aparece la imagen y una amiga llama y dice: 'Te he visto en línea', es una nueva transgresión, una nueva vergüenza”, afirma Stefan Turkheimer, vicepresidente de Políticas Públicas de RAINN.

Un número significativo de adolescentes conoce a alguien que ha sido víctima de desnudos falsos por IA

La encuesta de Thorn a 1200 jóvenes reveló que uno de cada ocho adolescentes de entre 13 y 17 años conoce a alguien que ha sido víctima directa de desnudos falsos, mientras que uno de cada 17 afirmó haber sido víctima directa.

“Una de las principales conclusiones del informe es la urgencia de que la sociedad reconozca que este comportamiento no es permisible y que es perjudicial para la persona a la que se dirige”, afirma Melissa Stroebel, vicepresidenta de investigación y análisis de Thorn. Deberíamos centrarnos en la recompartición no consensuada de una imagen explícita y sus consecuencias, independientemente de si se utilizó o no tecnología de IA en su creación.

Mientras Berry les contaba a sus padres lo sucedido, muchos adolescentes sufren en silencio. En la encuesta de Thorn, aproximadamente la mitad de los encuestados buscó algún tipo de apoyo presencial, y el 34 % de las víctimas informaron haberlo contado a un padre o cuidador.

“Era solo una niña de 14 años y todos ven mi cuerpo, y aunque no es mi cuerpo, siento la misma vergüenza y la misma culpa que sentiría una foto real”, afirma Berry.

Los hallazgos forman parte de una tendencia más amplia sobre el papel de la IA generativa en la creación de material de abuso sexual infantil. El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) comenzó a rastrear internamente la IA generativa en la primavera de 2023, según Lauren Coffren, directora ejecutiva de la División de Niños Explotados del NCMEC. Los informes sobre el uso de IA generativa para crear contenido sexual abusivo aumentaron de De 4700 en 2023 a 67 000 en 2024.

La adolescencia es un período clave para el desarrollo de la imagen corporal y la autoestima.

Los años de secundaria y preparatoria son un período en el que los estudiantes comienzan a desarrollar una mayor independencia, una mayor capacidad de toma de decisiones abstractas y cambios físicos significativos durante la pubertad.

Según Shadeen Francis, psicoterapeuta matrimonial y familiar licenciada, especializada en terapia sexual e inteligencia emocional, los adolescentes recurren a sus familias y amistades para determinar quiénes son en relación con su grupo de pares.

"Sufrir un trauma en este momento, especialmente considerando que el trauma altera nuestra confianza en nosotros mismos y en los demás, puede ser realmente perjudicial para la autoestima de un joven", afirma Francis.

Las experiencias tempranas de abuso tienen efectos a largo plazo en la capacidad de los adolescentes para construir relaciones saludables y establecer confianza con sus seres queridos más adelante en la vida. Las víctimas pueden desarrollar ansiedad, depresión y trastorno de estrés postraumático.

A Berry le preocupaba que la gente no supiera que las imágenes eran falsas. Y le preocupa que puedan resurgir en el futuro cuando solicite admisión a la universidad o empleo. Lo peor de todo, dice, es que las imágenes difamaron su imagen y la proyectaron bajo una luz sexual sin su consentimiento. Creció como una cristiana devota y dice que sus padres le enseñaron a no enviar nunca imágenes de desnudos.

"No quería que la gente pensara: 'Oh, esta era la clase de persona que era'", dice Berry. "Me despojó de mi inocencia y envió estas imágenes para que todos me vieran en ese estado vulnerable y débil".

Llevaba sudaderas y pantalones deportivos a la escuela para disimular su figura, porque no quería que nadie la viera en la vida real de la misma manera que veían esas fotos.

Ante el aumento de los deepfakes, los recursos y la legislación se quedan atrás

Los deepfakes salieron a la luz pública por primera vez en febrero de 2018 cuando Reddit suspendió r/deepfakes, una amenaza de subreddit con 90.000 seguidores donde los usuarios creaban fotos y vídeos pornográficos falsos. En aquel entonces, a menudo se necesitaban miles de imágenes para crear un deepfake, lo que convertía a las figuras públicas en el objetivo principal. Hoy en día, es posible crearlos con solo unas pocas imágenes.

En enero de 2024, los usuarios crearon imágenes falsas sexualmente explícitas de Taylor Swift en un partido de fútbol. Estas imágenes se propagaron como la pólvora a pesar de violar claramente las políticas de la plataforma de X, según el Centro de Recursos contra la Violencia Sexual.

McAdams afirma que la victimización de su hija la impactó. "Lo que oí eran de estrellas de cine o de alguien de Hollywood, no "Una niña", dice. "No tenía ni idea de la gravedad de lo que se podía hacer".

Los padres de las niñas víctimas en la escuela de Berry presentaron una investigación bajo el Título IX en enero de 2024 y el agresor fue acusado de un delito menor de clase A por distribución perjudicial de material. Actualmente, no existe una ley federal que obligue a las plataformas en línea a eliminar imágenes íntimas no consensuadas, lo que deja a los padres y a las escuelas sin recursos para gestionar los casos de deepfakes, según Turkheimer de RAINN.

Durante más de ocho meses, McAdams no logró que Snapchat eliminara las imágenes. Solo después de que la oficina del senador Ted Cruz, republicano por Texas, se pusiera en contacto personalmente con Snapchat, la foto fue eliminada, afirma.

Berry es una de las activistas que presiona a los legisladores para que aprueben la Ley de Eliminación de Imágenes (Take it Down Act), que penaliza la publicación de "imágenes no consensuadas y sexualmente explotadoras, incluyendo deepfakes generados por IA". Esto incluye las "falsificaciones digitales" creadas con software de IA y exige que las plataformas tecnológicas eliminen el contenido denunciado en un plazo de 48 horas tras recibir una solicitud válida.

El 3 de marzo, la primera dama Melania Trump defendió la ley, que fue aprobada por unanimidad en el Senado. Berry, quien se sentó junto a la primera dama, compartió su historia con los legisladores.

"Es desgarrador ver a adolescentes, especialmente a chicas, lidiar con los abrumadores desafíos que plantea el contenido malicioso en línea, como los deepfakes", afirma Trump.

Esto es lo que adolescentes y padres deben saber

Coffren afirma que los depredadores que crean imágenes sexualizadas no son nada nuevo, pero la enorme cantidad de nuevas tecnologías deepfakes facilita la creación de contenido y dificulta su detección.

Si es víctima de desnudos deepfakes, alerte a las autoridades utilizando la línea CyberTipline del NCMEC en report.cybertip.org o llamando al 1-800-843-5678. Los expertos recomiendan no eliminar ninguna plataforma en la que se haya producido el contenido, ya que puede ser Un rastro útil de evidencia.

Abrir conversaciones sobre deepfakes, tanto sobre la gravedad de crear las imágenes como sobre el potencial de sufrir daños, debería hacerse de la misma manera que los padres hablan con sus hijos sobre el consentimiento y la agresión sexual tradicional.

McAdams dice que estaba "muy al tanto" de lo que su hija sabía sobre las imágenes deepfakes, pero agradeció que su hija se sintiera lo suficientemente cómoda como para acudir a ella e instó a otros adolescentes a hacer lo mismo si les sucede.

"Hablen con sus hijos sobre esto. Tienen que saber que pueden acudir a ustedes sin miedo", dice McAdams.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd