Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3309

Incidentes Asociados

Incidente 59757 Reportes
Female Students at Westfield High School in New Jersey Reportedly Targeted with Deepfake Nudes

Loading...
Una laguna jurídica dificulta el castigo de estas despreciables fotos de desnudos generadas por IA
msnbc.com · 2023

La semana pasada, un número no revelado de niñas de una escuela secundaria de Nueva Jersey se enteró de que uno o más estudiantes de su escuela habían utilizado una herramienta de inteligencia artificial para generar lo que parecían ser imágenes de ellas desnudas. Peor aún, esas imágenes, que utilizan al menos una docena de fotografías] (https://www.wsj.com/tech/fake-nudes-of-real-students-cause-an-uproar-at-a-new-jersey -high-school-df10f1bb?st=t2o58fxzd2u4op1&reflink=desktopwebshare_permalink) de niñas en el campus, se compartían entre algunos niños de la escuela en chats grupales. Hay una investigación en curso, la [policía local está involucrada] (https://lawandcrime.com/high-profile/high-school-student-allegedly-used-real-photos-to-create-pornographic-deepfakes-of-female -compañeros de clase/), y se ha ofrecido asesoramiento a los estudiantes afectados. Si cree que debería haber una ley federal contra esa explotación dañina de víctimas menores de edad, o incluso de adultos, estoy de acuerdo con usted. Lamentablemente, no existe tal delito que cubre los desnudos generados por IA.

Si cree que debería haber una ley federal contra esa explotación dañina de víctimas menores de edad, o incluso de adultos, estoy de acuerdo con usted.

Las fotos y vídeos llamados deepfake están proliferando casi tan rápido como la gente puede descargar el software que los genera. Además de crear productos ficticios que no se parecen a personas concretas, los deepfakes pueden utilizar el rostro, la voz o una imagen parcial de una persona real y fusionarlos con otras imágenes para que parezca o suene como una representación de esa persona. La primavera pasada, una foto deepfake del Papa Francisco luciendo un elegante abrigo hinchado de la marca Balenciaga se volvió viral. El Papa podría estar a la moda, pero ese no era él en la imagen.

En 2019, los investigadores concluyeron que [el 96% de los 14.000 videos deepfake en línea que encontraron eran pornográficos](https://www.washingtonpost.com/technology/2023/11/05/ai-deepfake-porn-teens-women-impact /). Genevieve Oh, investigadora independiente de Internet que [ha seguido el aumento de los deepfakes](https://www.nbcnews.com/tech/internet/deepfake-porn-ai-mr-deep-fake-economy-google-visa-mastercard -download-rcna75071), dijo al Washington Post que 143.000 vídeos en 40 sitios web populares de falsificaciones [habían sido vistos 4.200 millones de veces](https://www.washingtonpost.com/technology/2023/11/05/ai- deepfake-porno-adolescentes-mujeres-impacto/).

Desde estudiantes de secundaria hasta personas influyentes y celebridades de YouTube, la [lista de víctimas](https://economictimes.indiatimes.com/magazines/panache/age-of-ai-has-led-to-an-alarming-proliferation-of -deep-fake-porn/articleshow/102175209.cms) continúa creciendo y el FBI advierte que su número de casos de “sextorsión” se está expandiendo.

En Internet, especialmente en los rincones más oscuros de la web oscura, los pedófilos están [divirtiéndose] (https://www.washingtonpost.com/technology/2023/06/19/artificial-intelligence-child-sex-abuse -imágenes/) con tecnología AI. Es importante destacar que la pornografía infantil generada por IA incluye algunas imágenes tomadas de niños conocidos e identificables, así como invenciones totalmente inventadas basadas en miles de imágenes digitalizadas esparcidas por la web. Si bien el Departamento de Justicia de EE. UU. afirma que este tipo de contenido sería procesable según las [leyes federales sobre pornografía infantil] existentes (https://www.law.cornell.edu/uscode/text/18/1466A) que cubren dibujos y caricaturas que representan a menores involucrados en el caso del sexo explícito, no puede señalar ni un solo procesamiento por pornografía infantil con IA según esta teoría. Incluso si el Departamento de Justicia persiguiera a alguien por producir o poseer dicho material, tendría que demostrar que las imágenes cumplían con la definición requerida de pornografía infantil que representa a menores participando en actos sexuales explícitos.

Las leyes federales sobre pornografía infantil tampoco ayudarían a los estudiantes de secundaria de Nueva Jersey si fueran retratados desnudos pero sin tener una conducta gráfica. Esa distinción legal tampoco ofrece mucho consuelo si las imágenes no consensuadas de estas víctimas viven para siempre en línea para perseguirlas mientras postulan a universidades y empleos. Necesitamos una ley federal para llenar esta brecha cada vez mayor entre la legislación obsoleta y la realidad de alta tecnología.

Es por eso que los fiscales generales de los 50 estados están pidiendo al Congreso que haga algo. También es la razón por la que el presidente Joe Biden, en su [orden ejecutiva] del 30 de octubre (https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe -desarrollo-y-uso-seguro-y-confiable-de-inteligencia-artificial/) abordando la necesidad de comprender y regular la IA, ordenó a su administración buscar soluciones para: evitar que la IA generativa produzca material de abuso sexual infantil o relaciones íntimas no consensuadas imágenes de personas reales (para incluir representaciones digitales íntimas del cuerpo o partes del cuerpo de una persona identificable).

En junio, el representante Joe Morelle, demócrata por Nueva York, presentó la [Ley de prevención de deepfakes de imágenes íntimas](https://abcnews.go.com/Politics/sharing-deepfake-pornography-illegal-america/story?id= 99084399) en un intento de abordar el uso continuo de la IA para producir representaciones desnudas de víctimas reales. La legislación es un paso en la dirección correcta para frenar el uso de la IA para dañar a las personas.

Nueve estados, incluidos California, Texas y Virginia, tienen leyes que ofrecen algunas recurso para las víctimas de imágenes generadas por IA. Algunos estados permiten demandas civiles por parte de las víctimas, otros han criminalizado dicha conducta y otros están considerando imponer marcas de agua digitales que ayudarían a rastrear las imágenes hasta sus productores. Algunas plataformas de Internet facilitan solicitudes de “eliminación” de las víctimas y afirman que eliminan contenido cuando lo solicita una víctima verificada.

La pornografía generada por IA no victimiza a sus objetivos sólo una vez.

Todas estas opciones, incluido el requisito de que los fabricantes de software de creación de imágenes mediante IA inserten automáticamente una etiqueta "deepfake" en el contenido fabricado, deben ser exploradas ahora por el Congreso y las agencias federales antes de que más víctimas se enfrenten al horror de que se utilice esta tecnología contra a ellos.

La pornografía generada por IA no victimiza a sus objetivos sólo una vez. Estas víctimas son violadas cada vez que alguien hace clic en las imágenes. Si nueve estados han descubierto esto, entonces nuestro gobierno federal también debería poder hacerlo. Se trata de una cuestión bipartidista poco común que los legisladores deberían aprovechar para hacer algo bueno antes de que los malos actores utilicen la IA para causar más estragos en las vidas de más personas inocentes.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd