Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1348: Imágenes explícitas de estudiantes de secundaria supuestamente falsificadas, creadas y circuladas mediante una aplicación móvil en Goffstown, New Hampshire.

Traducido por IA
Descripción:
Traducido por IA
En Goffstown, New Hampshire, unos estudiantes anónimos de octavo grado de la escuela secundaria Mountain View supuestamente utilizaron una aplicación con inteligencia artificial para crear y hacer circular imágenes y vídeos deepfake sexualizados que mostraban a sus compañeras de clase.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown image generator developers y Unknown deepfake technology developers developed an AI system deployed by Unnamed students at Mountain View Middle School, which harmed Unnamed students at Mountain View Middle School , students , minors , Families of unnamed students at Mountain View Middle School y Epistemic integrity.
Sistemas de IA presuntamente implicados: Unknown image generator technology y Unknown deepfake technology

Estadísticas de incidentes

ID
1348
Cantidad de informes
1
Fecha del Incidente
2025-10-07
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

Incident OccurrenceLos padres de NH dicen que los estudiantes de secundaria crearon fotos explícitas y deepfake de sus hijos usando una aplicación
Loading...
Los padres de NH dicen que los estudiantes de secundaria crearon fotos explícitas y deepfake de sus hijos usando una aplicación

Los padres de NH dicen que los estudiantes de secundaria crearon fotos explícitas y deepfake de sus hijos usando una aplicación

boston25news.com

Loading...
Los padres de NH dicen que los estudiantes de secundaria crearon fotos explícitas y deepfake de sus hijos usando una aplicación
boston25news.com · 2025
Traducido por IA

GOFFSTOWN, NH — Padres de tres niñas de secundaria afirman que estudiantes de octavo grado usaron inteligencia artificial para crear fotos y videos ultrafalsos de sus hijas desnudas. Afirman que las estudiantes usaron una aplicación para cr…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidente AnteriorSiguiente Incidente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • d690bcc