Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Traducido por IA

Incidente 1234: Supuestas falsificaciones explícitas generadas por IA de estudiantes de secundaria de Sídney circulan en línea

Traducido por IA
Descripción:
Traducido por IA
La policía de Nueva Gales del Sur, en Australia, inició una investigación después de que unos padres denunciaran la creación y circulación en línea de imágenes sexualmente explícitas, supuestamente generadas por inteligencia artificial, de alumnas de un instituto de Sídney. Las imágenes, supuestamente manipuladas y producidas sin consentimiento mediante herramientas de deepfake, dieron lugar a la intervención del centro educativo y a una investigación penal en virtud de las nuevas leyes estatales que prohíben este tipo de contenido.

Herramientas

Nuevo InformeNuevo InformeNueva RespuestaNueva RespuestaDescubrirDescubrirVer HistorialVer Historial

Entidades

Ver todas las entidades
Alleged: Unknown deepfake technology developer developed an AI system deployed by Unknown actor(s) creating deepfake nudes of Sydney high school students, which harmed Unnamed Sydney high school students y Families of unnamed Sydney high school students.
Sistemas de IA presuntamente implicados: Unknown deepfake technology y Nudify apps

Estadísticas de incidentes

ID
1234
Cantidad de informes
2
Fecha del Incidente
2025-10-15
Editores
Daniel Atherton

Informes del Incidente

Cronología de Informes

+1
La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney
Los datos de eSafety muestran que el abuso basado en imágenes deepfake ocurre al menos una vez a la semana en las escuelas
Loading...
La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney

La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney

abc.net.au

Loading...
Los datos de eSafety muestran que el abuso basado en imágenes deepfake ocurre al menos una vez a la semana en las escuelas

Los datos de eSafety muestran que el abuso basado en imágenes deepfake ocurre al menos una vez a la semana en las escuelas

abc.net.au

Loading...
La policía investiga informes de imágenes deepfake explícitas de niñas de una escuela de Sydney
abc.net.au · 2025
Traducido por IA

La policía está investigando informes sobre la circulación en línea de imágenes explícitas alteradas digitalmente con los rostros de alumnas de un instituto de Sídney.

La ABC tiene conocimiento de que varias familias acudieron a la comisarí…

Loading...
Los datos de eSafety muestran que el abuso basado en imágenes deepfake ocurre al menos una vez a la semana en las escuelas
abc.net.au · 2025
Traducido por IA

Las denuncias de abusos basados en imágenes deepfake se han duplicado en el país en los últimos 18 meses, con al menos un incidente que surge en escuelas australianas cada semana.

Las cifras fueron reveladas el viernes por el Comisionado de…

Variantes

Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

May 2022 · 2 informes
Loading...
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 informes
Loading...
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 informe
Incidente AnteriorSiguiente Incidente

Incidentes Similares

Por similitud de texto

Did our AI mess up? Flag the unrelated incidents

Loading...
Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

Australian Retailers Reportedly Captured Face Prints of Their Customers without Consent

May 2022 · 2 informes
Loading...
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 informes
Loading...
UK passport photo checker shows bias against dark-skinned women

UK passport photo checker shows bias against dark-skinned women

Oct 2020 · 1 informe

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 3303e65