Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6817

Incidentes Asociados

Incidente 13511 Reporte
Alleged Use of AI to Create Sexualized Deepfake Images of Middle School Students Under Investigation in Bucks County, Pennsylvania

Loading...
Estudiante de secundaria de Council Rock investigada por supuestas imágenes deepfake de niñas
phillyburbs.com · 2025

La policía del municipio de Newtown y la Fiscalía del Condado de Bucks investigan las acusaciones de que un estudiante de secundaria utilizó tecnología de inteligencia artificial para crear imágenes pornográficas de sus compañeros.

El incidente, según se informa, ocurrió en marzo y afectó a un estudiante de la escuela secundaria Newtown. Se utilizaron fotos de hasta 12 menores para crear imágenes falsas de desnudos, según personas familiarizadas con las acusaciones.

Se desconoce de inmediato si las imágenes se compartieron con otros o si están disponibles en línea.

La portavoz del Distrito Escolar de Council Rock, Andrea Mangold, se negó a hacer comentarios sobre el incidente, salvo para indicar que la policía del municipio de Newtown se está encargando del asunto.

El capitán de la policía del municipio de Newtown, Jason Harris, confirmó que se está llevando a cabo una investigación activa que involucra a un menor, pero indicó que no se divulgará información para evitar que el caso se vea comprometido.

Harris confirmó que el personal de Council Rock denunció el asunto a la policía. Se desconoce si se notificó a ChildLine, la línea directa estatal contra el abuso infantil.

Un portavoz de la fiscalía del condado de Bucks también confirmó que la oficina está al tanto de las acusaciones. Dijo que están investigando, pero no pueden revelar más información, alegando la participación de un menor.

Si se confirman las acusaciones, el estudiante podría ser uno de los primeros procesados bajo una nueva ley de Pensilvania que prohíbe la distribución de los llamados deepfakes pornográficos.

¿Qué son los deepfakes?

Los deepfakes son imágenes, videos y audio generados por herramientas de inteligencia artificial para representar tanto a personas reales como inexistentes. Estos deepfakes pueden simularse utilizando el rostro o la voz de alguien. En algunos casos, la imagen de una persona se ha colocado sobre un cuerpo desnudo o una imagen pornográfica sin ninguna relación con ella y se ha compartido en línea.

Estas falsificaciones digitales de alta tecnología se han utilizado para cometer estafas financieras, dañar la reputación personal y perturbar el proceso político.

¿Qué dice la ley de Pensilvania sobre el uso de deepfakes digitales generados por IA?

El año pasado, Pensilvania se convirtió en el primer estado en tomar medidas drásticas contra los deepfakes digitales.

La nueva ley de Pensilvania tipifica como delito acosar a alguien distribuyendo una imagen deepfake de esa persona sin su consentimiento mientras está desnuda o participando en un acto sexual. El delito sería más grave si la víctima es menor de edad.

La adición de material generado por IA se añadió para reforzar la ley estatal vigente, que tipifica como delito distribuir imágenes íntimas sin consentimiento.

La senadora estatal Tracy Pennycuick, republicana por Montgomery, quien preside el Comité de Comunicaciones y Tecnología del Senado, afirmó que el proyecto de ley se inspiró en parte en un incidente ocurrido en Westfield, Nueva Jersey, en 2023, donde se difundieron en redes sociales imágenes de estudiantes de secundaria desnudos generadas por IA.

El martes, miembros del Comité Judicial del Senado aprobaron un nuevo proyecto de ley relacionado con la IA que incluiría las imágenes digitales falsificadas y la suplantación de identidad bajo la ley estatal contra la falsificación.

Los miembros del Congreso también están analizando con mayor profundidad la tecnología deepfake.

El año pasado, los miembros del Senado aprobaron la Ley de Desafío, un proyecto de ley federal que permitiría a las víctimas de deepfakes sexualmente explícitos no consensuados demandar a quienes crean, comparten y reciben las imágenes. La versión de la Cámara de Representantes del proyecto de ley se volvió a presentar recientemente.

A principios de este año, los miembros de la Cámara de Representantes aprobaron una ley similar que obtuvo la aprobación del Senado, llamada la Ley de Eliminación de Contenidos (Take It Down Act), que Trump firmó el mes pasado. La ley penaliza la pornografía deepfake no consensuada y exige a las plataformas que eliminen dicho material dentro de las 48 horas posteriores a la notificación.

¿Cómo gestionan las escuelas las imágenes deepfake entre los estudiantes?

En su encuesta más reciente, el Centro para la Democracia y la Tecnología descubrió que casi el 40% de los estudiantes de secundaria encuestados habían oído hablar de personas que crean y comparten imágenes sexuales de otros sin permiso, incluyendo imágenes deepfake.

“Los niños se hacen esto entre sí con mayor frecuencia”, afirmó Kristin Woelfel, asesora política del centro, una organización independiente sin fines de lucro centrada en los derechos y las libertades civiles en la era digital.

La investigación del centro también reveló que la mayoría de los estudiantes descubiertos compartiendo imágenes sexuales, reales o deepfakes, se enfrentaron a consecuencias, generalmente derivaciones a las fuerzas del orden y suspensiones escolares a largo plazo.

Sin embargo, según Woelfel, el personal escolar no está realizando un buen trabajo de asistencia y prevención a las víctimas. Solo aproximadamente el 10 % de los estudiantes encuestados en el curso 2023-24 afirmó que su escuela proporcionaba recursos a las víctimas que aparecían en las imágenes.

La encuesta también reveló que la mayoría de las escuelas no habían compartido políticas o procedimientos que abordaran el intercambio de imágenes sexuales, reales o deepfakes, con los estudiantes, el personal ni los padres, afirmó Woelfel.

Más de la mitad del profesorado encuestado desconocía si existía dicha política en su distrito.

El centro también descubrió que las escuelas tenían más del doble de probabilidades de desarrollar una política sobre el intercambio de imágenes sexuales después de un incidente, afirmó Woelfel.

(Esta historia fue actualizada para reflejar con precisión la información más reciente.)

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd