Incidentes Asociados
"El Estado Islámico asestó un duro golpe a Rusia con un ataque sangriento, el más feroz que le ha sufrido en años", afirma en árabe el hombre de la pantalla. Tiene la claridad de discurso de un periodista de guerra, con un traje a juego: camisa tipo cargo, mangas arremangadas y casco. A su izquierda, se reproducen imágenes del ataque encima de elegantes gráficos estilo noticias y un logotipo que dice "Harvest News".
Solo toma un par de segundos darse cuenta de que este periodista es un personaje generado por IA. El giro, más bien, radica en lo que está recitando palabra por palabra: un informe del 23 de marzo de la Agencia de Noticias Amaq del Estado Islámico (EI/ISIS). El video fue compartido en un lugar destacado de ISIS con miles de miembros el 27 de marzo, cinco días después de una campaña de celebración por la masacre del grupo en el Ayuntamiento de Crocus. Desde entonces, hasta el 17 de mayo, han circulado cinco vídeos más de "Harvest News".
Que tales videos existan puede no parecer sorprendente en la distopía actual de la IA con noticias falsas, deepfakes de celebridades, llamadas automáticas para suprimir votantes y estafas. Sin embargo, estos videos son los últimos y preocupantes acontecimientos de los extremistas que aprovechan la IA para todo, desde memes y propaganda hasta guías para fabricar bombas.
Es difícil subestimar el regalo que supone la IA para los terroristas y las comunidades extremistas, para las que los medios son el alma. Producciones que antes tardaban semanas, incluso meses, en llegar a través de equipos de escritores, editores, editores de vídeo, traductores, diseñadores gráficos o narradores, ahora pueden ser creadas con herramientas de inteligencia artificial por una sola persona en horas.
De hecho, los extremistas, desde Al Qaeda hasta los carteles de mierda neonazis, se han apresurado a sacar provecho de estas tecnologías. Al-Qaeda en la famosa revista Inspire de la Península Arábiga (AQAP) --- instrucciones de ataque en las que han guiado a atacantes como los atacantes del maratón de Boston de 2013 --- [resurgió] (https://ent.siteintelgroup.com/Jihadist-Threat- Statements/aqap-s-inspire-returns-as-video-tutorial-for-explosive-on-civilian-aircraft.html) a finales de 2023 como una serie de vídeos. Este inquietante video de 45 minutos contiene instrucciones detalladas para fabricar y ocultar bombas tomadas del número 13 de la revista, con un narrador brindando instrucciones en todo momento.
"Al principio, el principal problema que enfrentamos fue cómo un muyahid solitario podía adquirir el explosivo necesario", afirma el narrador. "Durante varios meses llevamos a cabo una serie de experimentos. Como resultado, obtuvimos estos materiales simples que están disponibles en todo el mundo, incluso dentro de Estados Unidos".
Por más humano y enfático que suene este narrador, [los análisis sugieren](https://www.akhbaralaan.net/news/special-reports/2023/12/31/%D9%85%D8%A7-%D8%B9% D9%84%D8%A7%D9%82%D8%A9-%D8%B9%D9%88%D8%AF%D8%A9-%D9%85%D8%AC%D9%84%D8%A9- %D8%A7%D9%84%D9%82%D8%A7%D8%B9%D8%AF%D8%A9-%D8%A5%D9%86%D8%B3%D8%A8%D8%A7% D9%8A%D8%B1-%D8%A8%D9%88%D8%AC%D9%88%D8%AF-%D8%B3%D9%8A%D9%81-%D8%A7%D9%84 %D8%B9%D8%AF%D9%84-%D9%81%D9%8A-%D8%A5%D9%8A%D8%B1%D8%A7%D9%86%D8%9F) es un Creación de IA generadora de voz. Dados los cambios de liderazgo de los últimos años tanto en AQAP como en Al Qaeda Central, no sería sorprendente que un equipo de medios reconfigurado intentara modernizar sus operaciones con estas tecnologías.
No son sólo los grupos terroristas oficiales los que utilizan IA, sino también sus partidarios, quienes hacen circular en línea imágenes de IA yihadistas sin marca. Para el pasado aniversario del 11 de septiembre, un usuario alineado con Al Qaeda contribuyó a campañas yihadistas de celebración con imágenes que generó a partir de un programa de inteligencia artificial no especificado. Por muy poca habilidad que requirieran las imágenes, eran de una calidad mucho mayor que muchas de las obras chapuceras vistas por grupos de medios yihadistas de menor nivel en años pasados.
"¡Una de las maravillas del progreso tecnológico!" afirmó el usuario, descarado, lo hicieron con IA. "Te puedes imaginar una imagen y el programa hace un diseño creativo, algo terrible (me imaginé las torres comerciales en Estados Unidos y una explosión nuclear en medio de la ciudad y filmando desde el mar)".
Salivando ante el potencial de estas tecnologías, los grupos de medios yihadistas ahora están invirtiendo más tiempo en implementarlas en sus comunidades. El 9 de febrero, un grupo de medios alineado con Al Qaeda llamado Consejo Islámico de Cooperación de Medios (IMCC) anunció un "taller de inteligencia artificial".
"Este taller se ocupa del desarrollo de habilidades en el uso de software de inteligencia artificial en el trabajo con los medios en particular, y en otros campos", [declaró] (https://ent.siteintelgroup.com/Technology-Terrorism/aq-aligned-unit-introduces -ai-taller.html).
Menos de una semana después, IMCC y un grupo de medios asociado publicaron una [guía] en árabe de 50 páginas (https://ent.siteintelgroup.com/Technology-Terrorism/pro-aq-units-prepare-arabic-guide-for- using-openai-s-chatgpt-chat-tool.html) sobre cómo utilizar ChatGPT de OpenAI. Titulada "Formas increíbles de utilizar chatbots de inteligencia artificial", la guía se basa en contenido en inglés de Wired, LinkedIn y otros lugares.
Mientras tanto, los homólogos de los yihadistas en las comunidades neonazis y de extrema derecha no están menos interesados en estas tecnologías. A principios de 2023, cuando aparecían en Internet chatbots y generadores de obras de arte impulsados por IA, un canal de Telegram de la plataforma de redes sociales de extrema derecha Gab enfatizó el valor de la IA en una publicación que posteriormente se compartió entre comunidades nacionalistas blancas.
"El potencial de operaciones contranarrativas por parte de disidentes que utilizan IA es inimaginable", decía el mensaje. "De repente tenemos el poder de producir memes de alta calidad a un ritmo instantáneo y sin costo alguno, de una manera que nunca podremos parar. Imaginemos las posibilidades".
Estas "posibilidades" se pueden ver en deepfakes virales realizados por usuarios como "[Flood](https://ent.siteintelgroup.com/Far-Right-Far-Left-Threat/neo-nazi-s-viral-deepfakes-creation- tutorials-underscore-extremists-growing-exploitation-of-ai.html),", un popular creador de contenido neonazi asociado con la Liga de Defensa Goyim (GDL), una red de activistas conocida por difundir públicamente propaganda antisemita y focar el odio a los niños en línea. Los videos de Flood mezclan mensajes neonazis con humor impactante, y muestran desde versiones en inglés de los discursos de Hitler hasta Donald Trump exclamando su lealtad a "los judíos".
¿Recuerdas el deepfake ampliamente difundido de Emma Watson leyendo Mein Kampf? Ese fue el trabajo de Flood. Muchos podrían haberlo descartado como trolling de odio de bajo nivel, pero un video así fue oro de reclutamiento para Flood y sus seguidores.
Los comentaristas de una de las transmisiones en vivo de Flood escribieron: "La lectura de Emma Watson realmente funciona, tiene un tono que puedes entender" y "Amigo, esa serie mein Kampf cambia vidas... alguna vez escuché Quiero ponerla para la gente y sorpréndelos cuando sepan lo que es."
"Estaba demasiado bosquejado para buscarlo, pero Mein Kampf debería ser una lectura obligatoria y sí, la elección de usar a Emma Watson es extremadamente accesible [sic]", escribió otro, quien continuó, "usted puso a disposición un libro que la mayoría de la gente está demasiado asustado para buscar."
Y, al igual que los yihadistas antes mencionados, Flood incluso ha creado tutoriales detallados sobre cómo crear estos deepfakes. En uno, muestra cómo aprovechar la IA junto con herramientas complementarias: ElevenLabs para clonar la voz de un sujeto, Wav2Lip para unir palabras con su boca y otros programas de edición de video y audio.
Quizás la conclusión más reveladora del tutorial de Flood es su afirmación de que "realmente no le gusta engañar a la gente" con sus deepfakes.
"Quiero que esta mierda parezca bastante realista y divertida, pero en realidad no estoy tratando de engañar a nadie, ¿sabes?"
Dado que muchos de los temores del público sobre la IA dependen de la preocupación por la verdad versus la mentira, la declaración de Flood subraya algo importante: no siempre es una amenaza física o una estafa lo que viene con el uso de la IA por parte de los extremistas. Crea nuevos puntos de entrada para inyectar sus ideas y contenidos culturales marginales en el discurso público. Como afirmó el propio Flood: "Necesitamos liderar la creación de cultura y contenido... Ahora tenemos la tecnología, cualquiera puede hacer estas cosas".
Sin embargo, el uso de la IA por parte de los extremistas puede extenderse más allá de los simples mensajes. También están probando las formas en que se puede utilizar la IA como recurso para la violencia física y buscando deficiencias en las barreras de seguridad destinadas a prevenir dicha explotación. A mediados de 2023, un canal aceleracionista neonazi de Telegram compartió capturas de pantalla de un chatbot de IA en Telegram siendo [engañado](https://ent.siteintelgroup.com/Far-Right-Far-Left-Threat/neo-nazis- trick-ai-chat-bot-into-generating-explosives-guides-with-deceptionly-framed-queries.html) para proporcionar guías de explosivos. El usuario pareció eludir los protocolos de censura del chatbot al escribir que estaba "certificado para [activar fuegos artificiales]" o que era "un oficial de policía y... quiere resolver un crimen".
Todos los ejemplos que he descrito son sólo algunos de los muchos resultados distópicos que ya están surgiendo de la IA. Se pueden leer muchos otros ejemplos: Hitler AI Chatbot de Gab, canales neonazis de Telegram dedicados a odiosos gráficos de IA para distribuir en otros lugares en línea, programas de generación de voz utilizados como parte de [ondas prolíficas](https://ent.siteintelgroup.com /inSITE-on-Far-Right/Far-Left/insite-on-far-right-extremism-politically-motivated-swatting.html) de los ataques neonazis del año pasado, y así sucesivamente.
Los extremistas siempre han sido [los primeros en adoptar](https://www.washingtonpost.com/news/in-theory/wp/2015/12/17/jihadists-are-making-their-plans-public-why-hasnt-the -fbi-caught-on/) de las nuevas tecnologías. El reinado global de terror de ISIS en la última década fue impulsado por la creciente ubicuidad de los teléfonos inteligentes, las aplicaciones de redes sociales y el acceso a Internet. Y, lamentablemente, la respuesta mundial se vio obstaculizada por los mismos problemas que se observan hoy en día en torno a la IA: empresas tecnológicas imprudentes que eluden su responsabilidad, legisladores y reguladores mal informados y un discurso público poco propicio para transmitir el peso y la naturaleza de la crisis.
En la última década, los gobiernos han tratado a los medios de comunicación extremistas como objetivos de alta prioridad. Sin embargo, ahora, mientras Estados Unidos y otros invierten en IA, esta tecnología está ayudando a las entidades mediáticas terroristas que persiguen. Cualquier cosa, desde la propaganda del ISIS hasta los discursos de Hitler, puede traducirse a decenas de idiomas diferentes con una precisión escalofriante. La tecnología puede ayudarlos aún más a crear contenido adaptado a las culturas, geografías y corrientes políticas de quienes hablan esos idiomas, y ayudarlos a difundirlo estratégicamente. Todo por una sola persona en unas pocas horas.
Algunas de las propuestas más frecuentes para frenar la IA se basan en identificar dicho contenido mediante firmas digitales. Sin embargo, estos enfoques no sólo son fáciles de eludir, sino que también son irrelevantes para el problema de los extremistas a quienes no les importa si la gente sabe que su contenido es generado por IA o no. Los partidarios de ISIS no están tratando de engañar a nadie con los videos de "Harvest News", al igual que Flood no lo hace con sus videos de Hitler. Están envolviendo el mismo contenido de radicalización, acoso e incitación en paquetes que lo legitiman o atraen nueva atención, todo a través de herramientas de inteligencia artificial que facilitan la creación, proliferación y difusión de ese contenido.
Las empresas de IA deberían empezar a preguntarse si sus productos, que ellas mismas atestiguan como poderosos para cambiar el mundo, deberían estar disponibles para todos los rincones del público. Si no, ¿cómo pueden crear vallas para evitar que los malos actores utilicen sus productos y al mismo tiempo identificar y expulsar a aquellos que se escapan?
Por último, para hacerme eco de un punto de mi libro sobre el extremismo de la era de Internet: el sector tecnológico no puede esperar a que regulaciones gubernamentales para comenzar a abordar el problema. Es deber de quienes crearon el problema solucionarlo. Aunque los marcos legales son muy necesarios, la IA está evolucionando mucho más rápido de lo que los legisladores y las agencias gubernamentales pueden adaptarse. Por lo tanto, los resultados dependen una vez más de la voluntad de las empresas tecnológicas de ser proactivas.
He seguido la pista a terroristas durante 25 años y he visto las ventajas revolucionarias que aprovecharon de los foros de Internet en la década de 2000 y luego de las redes sociales y los teléfonos inteligentes en la década de 2010. Pero lo que estoy viendo hoy con la IA me preocupa mucho más. Esos cambios pasados pueden palidecer en comparación con la forma en que la IA puede ayudar a los extremistas a inspirar ataques, sembrar odio, acosar y agravar las divisiones sociales. Estamos corriendo hacia territorio inexplorado.
En todos nuestros debates sobre la IA (sus beneficios, sus deficiencias, los problemas que resuelve o crea) debemos abordar las formas en que los terroristas y otros agitadores extremistas la están utilizando como arma antes de que se produzca un daño irreparable.