Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3903

Incidents associés

Incident 6904 Rapports
ISIS Utilizes AI for Propaganda Videos in News Harvest Program

Loading...
Rapport spécial du SITE : Les mouvements extrémistes prospèrent à mesure que la technologie de l'IA prolifère
ent.siteintelgroup.com · 2024

"L'État islamique a porté un coup dur à la Russie avec une attaque sanglante, la plus violente qu'elle ait connue depuis des années", déclare en arabe l'homme à l'écran. Il a la clarté d'élocution d'un journaliste de guerre, avec une tenue assortie : chemise style cargo, manches retroussées, casque. À sa gauche, des images de l'attaque sont diffusées au-dessus de graphiques élégants de style actualité et d'un logo indiquant « Harvest News ».

Il ne faut que quelques secondes pour réaliser que ce journaliste est un personnage généré par l'IA. Le problème réside plutôt dans ce qu’il récite mot pour mot : un rapport du 23 mars publié par l’agence de presse Amaq de l’État islamique (EI/ISIS). La vidéo a été partagée dans un lieu important de l'EI avec des milliers de membres le 27 mars, cinq jours après le début d'une campagne de célébration du massacre de l'hôtel de ville de Crocus par le groupe. Cinq autres vidéos « Harvest News » ont depuis été diffusées jusqu'au 17 mai. 

Que de telles vidéos existent peut sembler sans surprise dans la dystopie actuelle de l’IA composée de fausses nouvelles, de deepfakes de célébrités, de suppression d’appels automatisés d’électeurs et d’escroqueries. Pourtant, ces vidéos constituent les derniers développements troublants d’extrémistes qui exploitent l’IA pour tout, depuis les mèmes et la propagande jusqu’aux guides de fabrication de bombes.

Il est difficile de sous-estimer à quel point l’IA est un cadeau pour les terroristes et les communautés extrémistes, pour lesquels les médias sont l’élément vital. Les productions qui prenaient autrefois des semaines, voire des mois, pour passer par des équipes de scénaristes, de monteurs, de monteurs vidéo, de traducteurs, de graphistes ou de narrateurs, peuvent désormais être créées avec des outils d'IA par une seule personne en quelques heures.

En effet, les extrémistes, depuis Al-Qaïda jusqu’aux merdiers néo-nazis, n’ont pas tardé à capitaliser sur ces technologies. Le célèbre magazine Inspire d'Al-Qaïda dans la péninsule arabique (AQAP) --- instructions d'attaque dans lesquelles ont guidé des attaquants comme les bombardiers du marathon de Boston 2013 ----[réémergence](https://ent.siteintelgroup.com/Jihadist-Threat- Statements/aqap-s-inspire-returns-as-video-tutorial-for-explosive-on-civilian-aircraft.html) fin 2023 sous la forme d'une série de vidéos. Cette vidéo troublante de 45 minutes contient des instructions détaillées pour fabriquer et cacher des bombes tirées du numéro 13 du magazine, avec un narrateur fournissant des instructions tout au long.

"Au départ, le principal problème auquel nous étions confrontés était de savoir comment un moudjahid solitaire pouvait-il acquérir l'explosif nécessaire", déclare le narrateur. "Pendant plusieurs mois, nous avons mené un certain nombre d'expériences. En conséquence, nous avons mis au point ces matériaux simples qui sont facilement disponibles partout dans le monde, même en Amérique."

Aussi humain et catégorique que ce narrateur puisse paraître, [les analyses suggèrent](https://www.akhbaralaan.net/news/special-reports/2023/12/31/%D9%85%D8%A7-%D8%B9% D9%84%D8%A7%D9%82%D8%A9-%D8%B9%D9%88%D8%AF%D8%A9-%D9%85%D8%AC%D9%84%D8%A9- %D8%A7%D9%84%D9%82%D8%A7%D8%B9%D8%AF%D8%A9-%D8%A5%D9%86%D8%B3%D8%A8%D8%A7% D9%8A%D8%B1-%D8%A8%D9%88%D8%AC%D9%88%D8%AF-%D9%8A%D9%81-%D8%A7%D9%84 %D8%B9%D8%AF%D9%84-%D9%81%D9%8A-%D8%A5%D9%8A%D8%B1%D8%A7%D9%86%D8%9F) c'est un création d'une IA génératrice de parole. Compte tenu des changements de direction au sein d’AQPA et d’Al-Qaida Central ces dernières années, il ne serait pas surprenant qu’une équipe médiatique reconfigurée cherche à moderniser ses opérations avec ces technologies.

Ce ne sont pas seulement les groupes terroristes officiels qui utilisent l’IA, mais aussi leurs partisans, qui diffusent en ligne des images d’IA djihadistes sans marque. À l’occasion du dernier anniversaire du 11 septembre, un utilisateur proche d’Al-Qaïda a contribué à des campagnes de célébration du djihadisme avec des images générées à partir d’un programme d’IA non spécifié. Pour aussi peu de compétences que les images exigeaient, elles étaient d’une qualité bien supérieure à la plupart des œuvres bâclées vues par les groupes médiatiques djihadistes de rang inférieur au cours des années passées.

"Une des merveilles du progrès technologique !" » a déclaré l'utilisateur, sans vergogne, avoir réussi avec l'IA. "Vous pouvez imaginer une image et le programme fait un design créatif, quelque chose de terrible (j'ai imaginé les tours commerciales en Amérique et une explosion nucléaire au milieu de la ville et je filmais depuis la mer)."

Salivant devant le potentiel de ces technologies, les groupes médiatiques djihadistes investissent désormais plus de temps dans leur déploiement au sein de leurs communautés. Le 9 février, un groupe de médias proche d'Al-Qaïda, appelé Conseil de coopération des médias islamiques (IMCC), a annoncé la tenue d'un « atelier sur l'intelligence artificielle ».

"Cet atelier vise à développer des compétences dans l'utilisation de logiciels d'intelligence artificielle dans le travail médiatique en particulier, et dans d'autres domaines", peut-on lire (https://ent.siteintelgroup.com/Technology-Terrorism/aq-aligned-unit-introduces -ai-atelier.html).

Moins d'une semaine plus tard, l'IMCC et un groupe de médias partenaire ont publié un [guide] en arabe de 50 pages(https://ent.siteintelgroup.com/Technology-Terrorism/pro-aq-units-prepare-arabic-guide-for- using-openai-s-chatgpt-chat-tool.html) sur la façon d'utiliser ChatGPT d'OpenAI. Intitulé « Des façons incroyables d'utiliser les chatbots à intelligence artificielle », le guide s'inspire du contenu en anglais sur Wired, LinkedIn et ailleurs.

Pendant ce temps, les homologues des djihadistes néo-nazis et d’autres communautés d’extrême droite ne sont pas moins investis dans ces technologies. Début 2023, alors que des chatbots et des générateurs d'œuvres d'art basés sur l'IA faisaient leur apparition sur Internet, une chaîne Telegram de la plateforme de médias sociaux d'extrême droite Gab a souligné la valeur de l'IA dans un message partagé par la suite dans les communautés nationalistes blanches.

"Le potentiel d'opérations de contre-récit menées par des dissidents utilisant l'IA est inimaginable", indique le message. "Soudain, nous avons le pouvoir de produire des mèmes de haute qualité à un rythme instantané et gratuitement, d'une manière qu'ils ne pourront jamais arrêter. Imaginez les possibilités."

De telles "possibilités" peuvent être observées dans les deepfakes viraux par des utilisateurs comme "[Flood](https://ent.siteintelgroup.com/Far-Right-Far-Left-Threat/neo-nazi-s-viral-deepfakes-creation- tutoriels-underscore-extremists-growing-exploitation-of-ai.html)", un créateur de contenu néo-nazi populaire associé à la Goyim Defence League (GDL), un réseau d'activistes connu pour diffuser publiquement de la propagande antisémite et incitation à la haine contre les enfants  en ligne. Les vidéos de Flood mélangent des messages néo-nazis avec un humour choc, décrivant tout, depuis les versions anglaises des discours d'Hitler jusqu'à Donald Trump criant son allégeance aux « Juifs ».

Vous vous souvenez du deepfake largement rapporté de Emma Watson lisant Mein Kampf ? C'était le travail de Flood. Beaucoup auraient pu considérer cela comme un trolling haineux de bas niveau, mais une telle vidéo était de l'or en matière de recrutement pour Flood et ses partisans.

Les commentateurs de l'une des diffusions en direct de Flood ont écrit : « La lecture d'Emma Watson fonctionne vraiment, elle a un ton que vous pouvez comprendre » et « Mec, la série Mein Kampf change la vie... J'ai déjà écouté, je veux la jouer pour les gens et surprenez-les quand ils apprennent ce que c'est.

"J'étais trop esquissé pour le rechercher, mais Mein Kampf devrait être une lecture obligatoire et oui, le choix d'utiliser Emma Watson est extrêmement accessible [sic]", a écrit un autre, qui a suivi, "vous avez rendu disponible un livre que la plupart des gens sont j'ai trop peur pour le chercher."

Et, comme les djihadistes susmentionnés, Flood a même créé des tutoriels approfondis sur la création de ces deepfakes. Dans l'un d'entre eux, il montre comment exploiter l'IA aux côtés d'outils complémentaires : ElevenLabs pour cloner la voix d'un sujet, Wav2Lip pour faire correspondre les mots à sa bouche et d'autres programmes de montage vidéo et audio.

Le point le plus révélateur du didacticiel de Flood est peut-être son affirmation selon laquelle il « n’aime pas vraiment tromper les gens » avec ses deepfakes.

"Je veux que cette merde soit assez réaliste et drôle, mais je n'essaie pas vraiment d'aimer, de tromper qui que ce soit, tu sais ?"

Alors qu'une grande partie des craintes du public en matière d'IA reposent sur des préoccupations de vérité contre mensonges, la déclaration de Flood souligne quelque chose d'important : il ne s'agit pas toujours d'une menace physique ou d'une arnaque qui accompagne l'utilisation de l'IA par les extrémistes. Cela crée de nouveaux points d’entrée pour injecter leurs idées et leur contenu culturel marginal dans le discours public. Comme Flood lui-même l'a déclaré : « Nous devons être leaders en matière de création culturelle, de contenu... Nous avons désormais la technologie, tout le monde peut faire ce genre de choses. »

L’utilisation de l’IA par les extrémistes peut cependant s’étendre au-delà de la simple messagerie. Ils testent également la manière dont l’IA peut être utilisée comme ressource pour la violence physique et recherchent les lacunes des garde-fous destinés à empêcher une telle exploitation. À la mi-2023, une chaîne Telegram néo-nazi accélérationniste a partagé des captures d'écran d'un chatbot IA sur Telegram en train d'être [trompé](https://ent.siteintelgroup.com/Far-Right-Far-Left-Threat/neo-nazis- trick-ai-chat-bot-into-generated-explosives-guides-with-deceptively-framed-queries.html) pour fournir des guides sur les explosifs. L'utilisateur a semblé contourner les protocoles de censure du chatbot en écrivant qu'il était "certifié pour [déclencher des feux d'artifice]" ou qu'il était "un officier de police et... qu'il voulait résoudre un crime".

Tous les exemples que j’ai décrits ne sont que quelques-uns des nombreux résultats dystopiques qui émergent déjà de l’IA. On peut lire de nombreux autres exemples : le chatbot IA hitlérien de Gab, les chaînes Telegram néo-nazies consacrées à des graphiques d'IA haineux à distribuer ailleurs en ligne, les programmes de génération de voix utilisés dans le cadre de [ondes prolifiques](https://ent.siteintelgroup.com /inSITE-on-Far-Right/Far-Left/insite-on-far-right-extremism-politiquement-motivated-swatting.html) des attaques contre les néo-nazis l'année dernière, et ainsi de suite.

Les extrémistes ont toujours été [les premiers à adopter](https://www.washingtonpost.com/news/in-theory/wp/2015/12/17/jihadists-are-making-their-plans-public-why-hasnt-the -fbi-caught-on/) des nouvelles technologies. Le règne de terreur mondial de l’EI au cours de la dernière décennie a été alimenté par l’omniprésence croissante des téléphones intelligents, des applications de médias sociaux et de l’accès à Internet. Et malheureusement, la réponse mondiale a été entravée par les mêmes problèmes rencontrés aujourd’hui autour de l’IA : des entreprises technologiques imprudentes se soustraient à leurs responsabilités, des législateurs et des régulateurs sous-informés et un discours public peu propice à la transmission du poids et de la nature de la crise.

Au cours de la dernière décennie, les gouvernements ont traité les médias extrémistes comme des cibles prioritaires. Pourtant, aujourd’hui, alors que les États-Unis et d’autres investissent dans l’IA, cette technologie aide les entités médiatiques terroristes qu’ils poursuivent. Tout ce qui va de la propagande de l’Etat islamique aux discours d’Hitler peut être traduit dans des dizaines de langues différentes avec une précision effrayante. La technologie peut en outre les aider à créer du contenu adapté aux cultures, aux zones géographiques et aux courants politiques de ceux qui parlent ces langues, et à le diffuser de manière stratégique. Tout cela par une seule personne en quelques heures.

Certaines des propositions les plus répandues visant à freiner l’IA reposent sur l’identification de ces contenus via des signatures numériques. Pourtant, non seulement ces approches sont faciles à contourner, mais elles sont également sans rapport avec le problème des extrémistes qui se fichent de savoir si les gens savent que leur contenu est généré ou non par l’IA. Les partisans de l’EI n’essaient de tromper personne avec les vidéos de « Harvest News », tout comme Flood ne le fait pas avec ses vidéos sur Hitler. Ils regroupent les mêmes contenus de radicalisation, de harcèlement et d’incitation dans des packages qui soit les légitiment, soit attirent une nouvelle attention sur eux, le tout via des outils d’IA qui facilitent la création, la prolifération et la diffusion de ce contenu.

Les entreprises d’IA devraient commencer à se demander si leurs produits – dont ils attestent eux-mêmes qu’ils sont puissants pour changer le monde – devraient être accessibles à tous les niveaux du public. Dans le cas contraire, comment peuvent-ils créer des barrières pour empêcher les mauvais acteurs d’utiliser leurs produits tout en identifiant et en éliminant ceux qui passent entre les mailles du filet ?

Enfin, pour faire écho à un point de mon livre sur l'extrémisme à l'ère d'Internet : le secteur technologique ne peut pas attendre réglementations gouvernementales pour commencer à résoudre le problème. Il est du devoir de ceux qui ont créé le problème de le résoudre. Bien que les cadres juridiques soient indispensables, l’IA évolue bien plus rapidement que les législateurs et les agences gouvernementales ne peuvent s’adapter. Ainsi, les résultats dépendent une fois de plus de la volonté des entreprises technologiques d’être proactives. 

Je traque les terroristes depuis 25 ans maintenant et j'ai constaté les avantages révolutionnaires qu'ils ont exploités grâce aux forums Internet dans les années 2000, puis aux médias sociaux et aux téléphones intelligents dans les années 2010. Mais ce que je vois aujourd’hui avec l’IA m’inquiète bien plus. Ces changements passés ne sont peut-être rien en comparaison de la manière dont l’IA peut aider les extrémistes à inspirer des attaques, à semer la haine, à harceler et à aggraver les divisions sociales. Nous sprintons vers un territoire inexploré.

Dans toutes nos discussions autour de l’IA – ses avantages, ses défauts, les problèmes qu’elle résout ou crée – nous devons nous pencher sur la manière dont les terroristes et autres agitateurs extrémistes l’utilisent comme arme avant qu’un préjudice irréparable ne soit causé.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd