Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4547

Incidentes Asociados

Incidente 79926 Reportes
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

El auge de los deepfakes: adolescentes expuestos a pornografía generada por inteligencia artificial
highschool.latimes.com · 2024

En febrero, el departamento de policía de Beverly Hills investigó a los estudiantes de la escuela secundaria Beverly Vista por crear fotos falsas de desnudos de sus compañeros de clase. Los funcionarios de la escuela y del distrito expresaron su conocimiento de las "fotos de desnudos generadas por IA".

Las deepfakes son imágenes, videos y clips de audio generados por inteligencia artificial que representan a personas reales o inexistentes. Estas imágenes producidas por IA se utilizan para difundir información errónea, especialmente sobre celebridades.

Elliston Berry, una joven de 15 años de Aledo, Texas, encontró fotos falsas de ella y sus amigas desnudas publicadas en las redes sociales. "Me desperté con muchos, muchos mensajes de texto de mis amigos diciéndome que había imágenes mías circulando", dijo Elliston.

En los últimos años, el aumento de desnudos falsos entre los adultos jóvenes se ha convertido en un problema alarmante. Ha habido numerosos incidentes en todo el país sobre adolescentes que crean contenido sexual falso para sus compañeros utilizando inteligencia artificial como herramienta de acoso.

"Fue muy realista. Es pornografía infantil", dijo la madre de Elliston, Anna McAdams en una entrevista con WFAA. "Realmente no podíamos cuidarla. En ese momento, estábamos indefensos... cada vez salían más fotos durante el primer día y el segundo".

El contenido sexual falso perjudica desproporcionadamente a las niñas, que representan el 90% de las víctimas de las falsificaciones profundas. Las falsificaciones profundas también pueden apuntar a grupos históricamente marginados, como un estudiante en Nueva York que hizo un video artificial de su director gritando insultos racistas y amenazando con lastimar a estudiantes de color. La violación de la reputación y la privacidad puede desencadenar graves problemas en la salud mental de los estudiantes (https://timesofindia.indiatimes.com/life-style/parenting/moments/how-social-media-scandals-like-deepfake-impact-minors-and-students-mental-health/articleshow/105168380.cms#), lo que hace que se sientan inseguros ante los demás y en los entornos escolares. Los ataques basados en la identidad hacen que los estudiantes se sientan humillados y distanciados de sí mismos.

En algunos estados se han implementado regulaciones para abordar el acoso mediante imágenes deepfake.

En junio, el senador de Texas Ted Cruz presentó la Ley de Herramientas para Abordar la Explotación Conocida mediante la Inmovilización de Deepfakes Tecnológicos en Sitios Web y Redes (Take It Down), que ilegaliza la publicación de imágenes pornográficas artificiales y realistas. Otros estados, como Mississippi, Luisiana, Dakota del Sur y Nuevo México, también aprobaron proyectos de ley para poner fin a la pornografía vengativa.

En 2019, el Congreso aprobó la Ley de Informe de Deepfakes, que exige que las empresas tecnológicas estadounidenses informen sobre las falsificaciones digitales. La Cámara también presentó la Ley de Responsabilidad por los Deepfakes dedicada a proporcionar recursos útiles para las víctimas de los Deepfakes. También se han aprobado otros proyectos de ley federales para mitigar las influencias de las imágenes artificiales, pero no hay leyes federales oficiales que prohíban o regulen los Deepfakes.

Antes de que el problema de la pornografía Deepfake pueda regularse de manera eficiente, los adolescentes están sujetos al peligro de la nueva forma de acoso cibernético y las víctimas quedan marcadas por sus experiencias.

"Yo era estudiante de primer año y tenía sólo catorce años", dijo Elliston. "Incluso hoy, todavía tengo miedo de que esas imágenes vuelvan a aparecer".

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 69ff178