Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 3168

Incidentes Asociados

Incidente 5512 Reportes
FBI Reported Surge of Extortion Cases of AI Media Featuring Sexual Explicit Activities

Loading...
El FBI advierte sobre el uso creciente de falsificaciones profundas generadas por IA en esquemas de sextorsión
arstechnica.com · 2023

El FBI advirtió el lunes sobre el uso cada vez mayor de inteligencia artificial para generar videos falsos para usar en esquemas de sextorsión que intentan acosar a menores y adultos que no consultan u obligarlos a pagar rescates o cumplir con otras demandas.

El flagelo de la sextorsión existe desde hace décadas. Se trata de un conocido en línea o un extraño que engaña a una persona para que proporcione un pago, una foto explícita o con un tema sexual u otro incentivo mediante la amenaza de compartir con el público imágenes comprometedoras ya obtenidas. En algunos casos, las imágenes en posesión de los estafadores son reales y se obtuvieron de alguien que la víctima conoce o de una cuenta que fue violada. Otras veces, los estafadores solo afirman tener material explícito sin proporcionar ninguna prueba.

Después de convencer a las víctimas de que sus imágenes explícitas o comprometedoras están en posesión de los estafadores, los estafadores exigen alguna forma de pago a cambio de no enviar el contenido a familiares, amigos o empleadores. En el caso de que las víctimas envíen imágenes sexualmente explícitas como pago, los estafadores a menudo usan el nuevo contenido para mantener la estafa durante el mayor tiempo posible.

En los últimos meses, el FBI dijo en una alerta publicada el lunes, el uso de IA para generar videos falsos que parecen mostrar a personas reales involucradas en actividades sexualmente explícitas. ha crecido la actividad.

“El FBI continúa recibiendo informes de víctimas, incluidos niños menores y adultos que no dieron su consentimiento, cuyas fotos o videos fueron alterados en contenido explícito”, escribieron los funcionarios. "Las fotos o videos luego se distribuyen públicamente en las redes sociales o sitios web pornográficos con el fin de acosar a las víctimas o esquemas de sextorsión".

Continuaron escribiendo:

A partir de abril de 2023, el FBI ha observado un aumento en las víctimas de sextorsión que informan el uso de imágenes o videos falsos creados a partir del contenido publicado en sus sitios de redes sociales o publicaciones web, proporcionados al actor malicioso a pedido o capturados durante chats de video. Según informes recientes de víctimas, los malintencionados normalmente exigían: 1. Pago (por ejemplo, dinero, tarjetas de regalo) con amenazas de compartir las imágenes o videos con familiares o amigos de las redes sociales si no se recibían los fondos; o 2. La víctima envía imágenes o videos reales de temática sexual.

El software y los servicios basados en la nube para crear los llamados videos deepfake son [abundantes en línea] (https://duckduckgo.com/?q=deepfake+creation+software&t=newext&atb=v363-1&ia=web) y abarcan toda la gama libremente [ofertas de código abierto] disponibles (https://github.com/iperov/DeepFaceLab) para [cuentas de suscripción] (https://www.deepswap.ai/pricing). Con los avances en IA en los últimos años, la calidad de estas ofertas ha mejorado drásticamente hasta el punto en que una sola imagen del rostro de una persona es todo lo que se necesita para crear videos realistas que usan la imagen de la persona en un video falso.

Anuncio

La mayoría de las ofertas de deepfake incluyen, al menos ostensiblemente, protecciones diseñadas para evitar el abuso de deepfake, por ejemplo, usando una [verificación integrada] (https://github.com/s0md3v/roop) diseñada para evitar que el programa funcione en "medios inapropiados". .” En la práctica, estas barandillas suelen ser fáciles de eludir y hay servicios disponibles en los mercados clandestinos que no tienen restricciones.

Los estafadores a menudo obtienen fotos de las víctimas de las redes sociales o de otros lugares y las usan para crear "imágenes de temática sexual que parecen reales en semejanza a la víctima, y luego las distribuyen en las redes sociales, foros públicos o sitios web pornográficos", funcionarios del FBI. prevenido. "Muchas víctimas, que incluyen a menores, no saben que sus imágenes fueron copiadas, manipuladas y distribuidas hasta que otra persona les llamó la atención. Acto seguido, los actores maliciosos envían las fotos directamente a las víctimas para sextorsión o acoso, o hasta que fue auto-descubierto en Internet. Una vez que circuló, las víctimas pueden enfrentar desafíos significativos para evitar el intercambio continuo del contenido manipulado o la eliminación de Internet".

El FBI instó a las personas a tomar precauciones para evitar que sus imágenes se utilicen en falsificaciones profundas.

"Aunque aparentemente son inocuos cuando se publican o comparten, las imágenes y los videos pueden proporcionar a los actores maliciosos un suministro abundante de contenido para explotar en actividades delictivas", afirmaron los funcionarios. "Los avances en la tecnología de creación de contenido y las imágenes personales accesibles en línea presentan nuevas oportunidades para que los actores maliciosos encuentren y se dirijan a las víctimas. Esto los deja vulnerables a la vergüenza, el acoso, la extorsión, la pérdida financiera o la revictimización continua a largo plazo".

Las personas que han recibido amenazas de sextorsión deben conservar todas las pruebas disponibles, en particular capturas de pantalla, textos, grabaciones, correos electrónicos que documenten nombres de usuario, direcciones de correo electrónico, sitios web o nombres de plataformas utilizadas para la comunicación y direcciones IP. Pueden denunciar inmediatamente la sextorsión a:

  • Centro de Quejas de Delitos en Internet del FBI en  www.ic3.gov
  • Oficina local del FBI [www.fbi.gov/contact-us/field-offices](https://www.ic3.gov/Home/Egress?url=https://www.fbi.gov/contact-us/ oficinas de campo&h=6DDC52DF2049F96DACAD3C0D64DF610D1248D1F7728544240271B9025CB9383F) o 1-800-CALL-FBI (225-5324)
  • Centro Nacional para Niños Desaparecidos y Explotados (1-800-THE LOST o www.cybertipline.org)
Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd