Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4093

Incidentes Asociados

Incidente 79927 Reportes
Aledo High School Student Allegedly Generates and Distributes Deepfake Nudes of Seven Female Classmates

Loading...
Una víctima de ciberexplotación de inteligencia artificial de 14 años habla sobre su humillante experiencia en las redes sociales
foxbusiness.com · 2024

Un siniestro plan de explotación cibernética puso patas arriba la vida de Elliston Berry, una adolescente de 14 años de Texas, el pasado mes de octubre, después de que una mañana descubriera imágenes falsas de ella misma desnuda circulando por las redes sociales (https://www.foxnews.com/media).

Para empeorar las cosas, muchos de sus compañeros de clase ya las habían visto.

"[Yo estaba] esperando un día normal, y recibí numerosas llamadas y mensajes de mis amigos diciéndome que estas imágenes de desnudos estaban circulando", recordó el miércoles en el programa "Mornings with Maria" de FOX Business.

"[Estaban circulando] por toda la escuela: Snapchat, Instagram, por todas las redes sociales", añadió.

La adolescente de 14 años de Texas Elliston Berry dijo que se sintió mortificada al descubrir desnudos falsos de ella misma circulando por las redes sociales. (Mornings with Maria/Captura de pantalla/Fox News)

La madre de Berry, Anna McAdams, también esperaba un día normal hasta que su hija entró corriendo a su habitación horrorizada y llorando.

"Ella entró allí mostrándome las fotos, y yo estaba mortificada y, como madre, atónita. Quiero decir, no pude proteger a mi hija", dijo el miércoles.

McAdams le dijo a la presentadora Maria Bartiromo que las fotos parecían convincentes.

Una de Berry parada en la cubierta de un crucero fue alterada para reemplazar su ropa con un cuerpo desnudo falso. Otros desnudos falsos de chicas en su grupo de amigos, según un informe del Wall Street Journal, se generaron utilizando fotos originales de la playa.

"Reconocí dónde estaba", dijo McAdams. "Como madre, supe inmediatamente dónde estaba la primera foto, pero... si no lo supiera y solo estuviera mirando la foto, probablemente pensaría que era real".

Berry descubriría más tarde que un compañero de clase había orquestado el plan al tomar dos fotos de su cuenta privada de Instagram y desnudarla usando un software de inteligencia artificial, informó el WSJ.

Esta imagen de "Mornings with Maria" detalla la "Ley de eliminación de las fotos" respaldada por ambos partidos. (Mornings with Maria/Captura de pantalla/Fox News)

El mismo estudiante también estaba detrás de los incidentes que involucraron a sus amigos.

Berry le dijo al medio que la terrible experiencia la dejó sintiéndose "avergonzada y temerosa" en la escuela, ya que se preguntaba si los estudiantes con los que se encontró habían visto las imágenes y creían que eran falsas.

"Sentí que tenía que decirles a todos que no era real y que yo lo era, que solo estaba luchando por lo que pensaba que era correcto", le dijo a Bartiromo.

Los esquemas de explotación han surgido como un desafío ético principal a medida que la IA continúa creciendo exponencialmente, abriéndose camino en la fuerza laboral, el ámbito creativo y en otros lugares.

Esto ha dejado a los legisladores con la presión de hacer algo al respecto.

El senador republicano de Texas Ted Cruz](https://www.foxnews.com/category/person/ted-cruz) y la senadora demócrata de Minnesota Amy Klobuchar son dos de los legisladores bipartidistas que patrocinan la "Ley de eliminación", que penalizaría la publicación de imágenes íntimas no consensuadas, requeriría que las plataformas de redes sociales eliminen el contenido y más.

"Este es un patrón enfermizo y retorcido que se está volviendo cada vez más común. Hay miles y miles de personas que son víctimas, al igual que Elliston", dijo Cruz mientras se sentaba en el estudio con Bartiromo, Berry y McAdams.

"De las falsificaciones profundas que están en línea, hasta el 95% de ellas son imágenes íntimas no consensuales, y la tecnología es tal que puedes tomar... [imágenes inocentes] y puedes convertirlas en fotografías, puedes convertirlas en videos. Con la tecnología, no puedes saber que son falsas. Crees que son reales. Y este es un patrón que se está utilizando para abusar [principalmente mujeres y adolescentes]".

Cruz dijo que el proyecto de ley tiene como objetivo imponer penas de prisión a los infractores: ponerlos tras las rejas durante dos años si el delito se comete contra un adulto y tres años si la víctima es menor de edad.

También enfatizó que dicha legislación daría a las plataformas de redes sociales la obligación legal de intervenir y eliminar imágenes dañinas.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd