Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4525

Incidentes Asociados

Incidente 6523 Reportes
Two Florida Middle School Students Arrested Under New Law for Allegedly Having Made and Shared Deepfake Nudes of Their Classmates

Loading...
Arrestan a adolescentes de Miami por crear imágenes de desnudos de compañeros de clase generadas con inteligencia artificial
the-decoder.com · 2024

Dos adolescentes de 13 y 14 años de Miami, Florida, fueron arrestados el 22 de diciembre de 2023 por supuestamente crear imágenes de desnudos generadas por IA de compañeros de clase masculinos y femeninos, de 12 y 13 años, y compartirlas sin su consentimiento, informa WIRED, citando un informe policial.

Según el informe, los adolescentes supuestamente utilizaron una "aplicación de IA" para crear las imágenes explícitas falsas. El nombre de la aplicación no se menciona en el informe.

Los adolescentes enfrentan cargos por delitos graves de tercer grado, comparables al robo de automóviles o al encarcelamiento injusto. La acusación se deriva de una ley aprobada en Florida en 2022 para frenar el acoso a través de imágenes deepfake.

Hasta el momento, ni los padres de los chicos acusados ni el investigador y el fiscal a cargo se han pronunciado sobre el caso.

Casos similares han salido a la luz en EE. UU. y Europa. Sin embargo, se cree que el caso de Florida es el primer arresto y procesamiento conocido por imágenes de desnudos supuestamente generadas por IA.

Los generadores de imágenes de IA conducen a más abuso infantil

Los cuerpos desnudos que se muestran en las imágenes falsas de IA no son imágenes de cuerpos reales, sino réplicas creadas por inteligencia artificial. Sin embargo, estas imágenes pueden parecer auténticas, lo que puede provocar angustia psicológica y daños a la reputación.

La Casa Blanca respondió recientemente a las fotos de desnudos de Taylor Swift generadas por IA: el gobierno de Estados Unidos calificó este y otros incidentes similares de "alarmantes" y dijo que se necesitan nuevas leyes.

A fines de octubre de 2023, la Internet Watch Foundation (IWF) informó que los generadores de imágenes de IA también están provocando un aumento en el material de abuso sexual infantil (CSAM).

El Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos informó de un "fuerte aumento" de imágenes de abuso generadas por IA para fines de junio de 2023. Las imágenes complicarían las investigaciones y podrían dificultar la identificación de las víctimas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd