Incidentes Asociados

Una campaña de propaganda a favor de China que ha estado atacando a EE. UU. en las redes sociales creó seguidores falsos con la ayuda de AI-generated imágenes
Desde junio, la campaña ha estado publicando videos en inglés que critican a la administración Trump en Facebook, Twitter y YouTube, [según(Se abre en una ventana nueva)](https://www.graphika.com/reports/spamouflage- dragon-goes-to-america/) a la empresa de investigación Graphika, que ha estado siguiendo las actividades del grupo.
Graphika llama a la campaña "Spamouflage Dragon". Y al igual que otras actividades de propaganda, el grupo pro-China usa cuentas falsas para compartir y publicar comentarios sobre su contenido para ayudarlo a obtener una circulación más amplia. Sin embargo, Graphika notó algo extraño con las fotos de perfil pertenecientes a estas cuentas falsas: en algunos casos, los disparos a la cabeza parecen ser obra de un programa de IA diseñado para crear rostros humanos artificiales.
A primera vista, las fotos de perfil parecen legítimas. Pero Graphika detectó extraños puntos en común en las imágenes, como los fondos borrosos y cómo coincidían las posiciones del globo ocular en las fotos de perfil. Esto indica que las fotos probablemente fueron el producto de una "red antagónica generativa" o [GAN] (https://www.pcmag.com/news/nvidias-ai-creates-artificial-human-faces-from-celebrity-photos) , una tecnología de aprendizaje automático experta en crear rostros humanos aparentemente reales, pero en última instancia falsos.
Las GAN pueden generar un rostro sintético al estudiar imágenes existentes de personas reales y aprender a recrear los rasgos faciales en una nueva imagen. Sin embargo, los resultados no siempre son perfectos. El programa de IA a menudo tiene problemas para representar aretes y otros objetos alrededor de la cara de la persona falsa. Los fondos también se dejan vagos.
Sin embargo, la tecnología ha despertado temores de que los malos actores exploten la IA. crearon medios para ayudarlos a difundir desinformación en las redes sociales. Por ejemplo, una búsqueda inversa de imágenes a menudo puede revelar si el usuario la foto de perfil es legítima o ha sido reutilizada desde otro lugar. Pero no se puede hacer lo mismo con una foto recién generada hecha por una IA.
En el caso de Spamouflage Dragon, el grupo pro-China usó las fotos generadas por IA para crear seguidores falsos en Twitter y YouTube. Sin embargo, la campaña en sí fue bastante mala, según Graphika. "Los videos se hicieron de manera torpe, marcados por errores de lenguaje y voces en off automatizadas incómodas", dijo la compañía de investigación en su [informe (Se abre en una ventana nueva)] (https://public-assets.graphika.com/reports/ graphika_report_spamouflage_dragon_goes_to_america.pdf).
Las grabaciones de texto a voz asistidas por computadora eran tan malas que algunos videos pronunciaban Estados Unidos como "nosotros". Otros errores de lenguaje incluyen el uso de titulares y subtítulos que mencionaron "El público culpó a Trump sin acción" y "muy bueno para ser travieso".
Como resultado, los videos no recibieron ningún compromiso de los usuarios reales de las redes sociales. La campaña se desarrolló desde junio hasta principios de agosto, publicando videos críticos con [la prohibición del presidente Trump de TikTok] (https://www.pcmag.com/news/trump-bans-tiktok-united-states) y su enfoque de COVID-19 . Sin embargo, desde entonces, las empresas de redes sociales han eliminado los videos del grupo y las cuentas de usuarios afiliados.
No está claro si el gobierno chino estuvo detrás de la campaña. Sin embargo, los funcionarios de inteligencia de EE. UU. trabaja contra biden) la semana pasada que los gobiernos extranjeros, incluidos China, Rusia e Irán, intentarán influir en la opinión pública estadounidense para influir en las próximas elecciones presidenciales.
Graphika dice que no es la primera vez que la empresa encuentra(Se abre en una ventana nueva) una campaña de propaganda que incorpora fotos generadas por IA en sus esquemas. Pero la compañía advierte: "Dada la facilidad con la que los actores de amenazas ahora pueden usar los servicios disponibles públicamente para generar imágenes de perfil falsas, es probable que esta táctica sea cada vez más frecuente".