Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4631

Incidents associés

Incident 9191 Rapport
Purported Russian-Linked Network Allegedly Used Deepfake of Maria Ressa on Facebook and Bing to Promote Cryptocurrency Scam Targeting Filipinos

Loading...
Un réseau d’escroqueries russe diffuse un deepfake de Maria Ressa via Facebook et Bing de Microsoft
rappler.com · 2024

Le mardi 6 février 2024, des personnes concernées ont alerté Rappler au sujet d'une vidéo deepfake qui donnait l'impression que Maria Ressa, lauréate du prix Nobel de la paix et PDG de Rappler, avait déclaré avoir gagné de l'argent grâce à la cryptomonnaie Bitcoin. La vidéo deepfake manipulait une interview de Ressa par l'animateur de talk-show américain Stephen Colbert datant de novembre 2022. Elle a été diffusée via une page Facebook nouvellement créée et une publicité sur la plateforme Bing de Microsoft. Microsoft et Facebook ont depuis supprimé la publication et la publicité qui diffusaient le deepfake. En utilisant les empreintes digitales numériques laissées par les faussaires, une enquête de suivi dans laquelle Rappler a collaboré avec le groupe suédois de criminalistique numérique Qurium a lié le deepfake à un réseau d'escroquerie russe. L'enquête a également indiqué que la campagne ciblait spécifiquement le public philippin. ##### Repérer le deepfake La vidéo deepfake a été initialement repérée le 25 janvier 2024, sur la page Facebook, « Method Business », qui a été créée quelques jours seulement auparavant. Vingt et une heures après sa publication, la vidéo avait déjà recueilli 22 000 vues. (Voir capture d'écran ci-dessous.) PAGE FACEBOOK NOUVELLEMENT CRÉÉE. La page Facebook qui a diffusé la vidéo deepfake bitcoin de Maria Ressa a été créée quelques semaines seulement avant la publication du deepfake. Elle reste active au moment de la rédaction du présent document. Rappler a également été alerté plus tard de l'existence d'une page Web, hébergée sous l'URL ultimainv.website, qui clonait alternativement les pages d'articles des sites Web de Rappler et de CNN Philippines. Le site imposteur a été promu via une publicité diffusée sur la plateforme Bing de Microsoft. (Publicité entourée par Rappler dans la capture d'écran ci-dessous) DEEPFAKE PROMOTIONNÉ PAR LA PUBLICITÉ. Le lien vers les sites Web imposteurs dans lesquels la vidéo deepfake bitcoin de Maria Ressa était également promue via une publicité sur la plateforme Bing de Microsoft. Ultimainv.website est un domaine nouvellement enregistré. Le premier enregistrement dans l'historique de son domaine est daté du 10 janvier 2024. Les créateurs de la vidéo deepfake ont manipulé une interview de novembre 2022 de Colbert où il a posé des questions à Ressa sur son livre, How To Stand Up To A Dictator, et les affaires déposées contre elle et Rappler à l'instigation de l'ancien président philippin Rodrigo Duterte. La vidéo manipulée utilisait une fausse voix, générée par l'IA, qui imitait la voix de Ressa. La plupart du temps, la fausse vidéo la montrait parler en synchronisation avec l'audio. Mais il y a eu un certain nombre de fois où la synchronisation a échoué, ce qui était la principale indication qu'il s'agissait d'une vidéo deepfake. Regardez la vidéo intégrée ci-dessous qui compare l'interview originale avec la vidéo manipulée qui avait l'audio généré par l'IA. La vidéo peut sembler convaincante pour un utilisateur qui ne fait pas attention ou qui n'est pas conscient de la façon dont la technologie de l'IA peut copier les voix ou à quoi peut ressembler une vidéo deepfake. Rappler a signalé la vidéo à Meta, et elle a depuis été supprimée, mais la page, Method Business, reste active. Plus qu'une tentative d'arnaquer les gens pour qu'ils investissent dans le bitcoin, les faux articles publiés sur des pages Web imitant Rappler et CNN Philippines laissaient également entendre que Ressa était impliquée dans l'arnaque. Les deux articles titrés « Maria Ressa pourrait être poursuivie en justice pour ses propos tenus en direct à la télévision », affirmaient que la carrière de Ressa « était en jeu », prétendument à la suite de propos tenus en direct à la télévision. La publicité qui faisait la promotion des sites Web imposteurs utilisait le texte « La fin pour elle ? » comme titre, sous-entendant que Ressa était impliquée dans un scandale. Les faux articles affirmaient également que la diffusion en direct aurait été interrompue à la suite de demandes de banques de premier plan pour l'arrêter et effacer l'enregistrement. (Voir les captures d'écran des faux articles ci-dessous.) ##### Origine russe, ciblant un public philippin Les pages où la vidéo et les faux articles de Rappler et de CNN Philippines ont été publiés ont également été conçues pour être consultées uniquement par les fournisseurs d'accès Internet (FAI) philippins. Les enquêteurs qui ont enquêté sur le deepfake ont dû employer diverses techniques pour visualiser les sites imposteurs depuis leur emplacement. Cela implique que les personnes derrière le deepfake ciblaient spécifiquement les Philippins. Le site Internet de CNN Philippines avait déjà fermé le 1er février 2024, quelques jours avant la date de publication du faux article, le 5 février 2024. Une enquête de suivi menée par le groupe suédois de criminalistique numérique Qurium Media a révélé plus tard que les sites clones faisaient partie d'un réseau en ligne frauduleux qui incite les victimes à payer pour un produit qui se retrouve généralement sous la forme d'une boîte vide ou d'un objet aléatoire de mauvaise qualité à la livraison. Le réseau, selon Qurium, semble être d'origine russe. Les liens trouvés sur le réseau ont également montré l'utilisation de l'écriture cyrillique et un fuseau horaire de GMT+3 (Moscou, Saint-Pétersbourg), ce qui, selon Qurium, est une « indication solide » mais « pas une preuve concluante » que le réseau est d'origine russe. Le contenu de la plateforme utilisée pour créer les faux sites Web est en langue russe. Qurium a analysé les données d'enregistrement de domaine et d'hébergement des faux sites, les métadonnées des images et des vidéos intégrées sur les faux sites, ainsi que les métadonnées des articles originaux extraits des sites Web originaux de CNN et de Rappler pour créer les fausses pages. La campagne a été opérationnelle du 28 novembre 2023 au 25 février 2024. L'analyse du réseau par Qurium montre un système élaboré qui contourne la responsabilité légale en divisant l'opération en entités distinctes, ce qui permet le déni et l'anonymat. Le réseau d'escroquerie, tel que découvert par Qurium, utilise un système multi-rôle qui garantit que personne ne sera tenu responsable de l'escroquerie. Voici les rôles : - L'annonceur affilié ou l'éditeur Il s'agit de la page Web qui collecte les noms et numéros de téléphone des victimes potentielles auprès d'un intermédiaire, qui, dans ce cas, est la « boutique M1 ». Qurium a déclaré que sur leur site, « ils indiquent clairement qu'ils ne font que faire de la publicité pour des produits et qu'ils ne sont pas responsables de tout ce qui concerne la marchandise ». L'annonceur affilié dans ce cas a été identifié comme « TD Globus Contract ». Outre le site Web ultimainv.website, qui hébergeait les fausses pages CNN et Rappler, TD Globus Contract s'est avéré contenir des liens vers plus de 40 autres sites Web liés au réseau d'escroquerie. - L'intermédiaire L'intermédiaire (M1 Shop) récupère les informations des victimes auprès de l'éditeur et les transmet à l'annonceur moyennant des frais. Il est responsable du paiement de l'éditeur pour les informations qu'il reçoit ou les clics que la page Web de l'éditeur génère et qui envoient les victimes vers la boutique M1. - Les annonceurs Les annonceurs créent les offres frauduleuses, qui, dans ce cas, allaient des produits nutritionnels aux offres de cryptomonnaie. Qurium a expliqué que la fraude fonctionne car les identités des annonceurs sont protégées par l'intermédiaire, tandis que les éditeurs ou les pages Web sont modifiés « une fois que leur réputation a été compromise ». « En fin de compte, personne n'assume la responsabilité de la fraude », a déclaré Qurium. « Les sites Web qui font la promotion des produits sont enregistrés sous de fausses sociétés et prétendent ne pas connaître les fournisseurs de produits finaux, et le réseau publicitaire affirme qu'il ne surveille pas ce qui est promu sur sa plateforme. Quelque chose est cependant garanti, les victimes se font escroquer et tout le monde dans leur réseau est payé pour leurs « services ». » Pendant ce temps, M1 joue un « rôle de courtier » dans le réseau d'escroquerie, cachant les annonceurs malveillants de tout examen. Rappler a déjà contacté la boutique M1 via les comptes Telegram sur son site Web. Nous mettrons à jour cette histoire lorsque nous recevrons une réponse de M1. ##### Dommage potentiel Les vidéos deepfake peuvent être convaincantes et puissamment persuasives, c'est pourquoi les escrocs tenteraient de les utiliser. Cependant, il existe d'autres motivations potentielles. En Inde, des politiciens ont eu recours à des deepfakes pour calomnier leurs opposants ou semer la confusion parmi les électeurs. À Taïwan, des deepfakes et des faux à bon marché ont été diffusés en ligne avant les élections présidentielles de 2024. En Indonésie, des deepfakes ont également été utilisés à l’approche des élections présidentielles. La nature de la désinformation ne réside pas parfois dans le mensonge pur et simple. Souvent, il s’agit simplement de planter une graine dans l’esprit du public qui pourrait ensuite être exploitée, a ajouté Qurium dans son rapport. Quelle que soit la motivation, les deepfakes peuvent potentiellement être utilisés pour influencer l’opinion publique, comme un mensonge très puissant, ce qui est particulièrement nocif dans des situations telles que des élections nationales et des scénarios évoluant rapidement comme des situations de violence, par exemple. Dans ce cas précis, si l’intention était d’arnaquer des gens, les escrocs ont peut-être pensé qu’utiliser un deepfake de Maria Ressa pourrait convaincre certaines personnes d’investir dans un produit qui, en fin de compte, n’existe pas. La fausse campagne a peut-être tenté de tirer parti de la réputation d’une journaliste en tant que voix faisant autorité, à ses dépens. D’autres figures d’autorité peuvent également être victimes, mettant leur réputation en jeu. Alors que Rappler et Qurium enquêtaient sur ce deepfake spécifique, un deepfake similaire impliquant un homme d’affaires philippin a également été diffusé par ce qui semble être le même processus. Très récemment, des deepfakes utilisant des ancres du réseau GMA7 ont été utilisés pour promouvoir un collier censé provenir du Vatican. Il existe d'autres possibilités. Ce qui est curieux à propos du deepfake de Maria Ressa, c'est que les publicités sur Bing, qui faisaient la promotion des sites imposteurs de CNN Philippines et de Rappler, ne semblaient pas promouvoir un produit. Elles faisaient plutôt référence à un scandale impliquant Ressa. « Ce qui est particulièrement inquiétant (à propos du deepfake de Ressa), ce sont les couches d'intentions malveillantes derrière un seul acte de manipulation numérique et les dommages qui en découlent », a déclaré Cheryll Soriano, professeur de communication à l'université De La Salle, à Rappler. Soriano, qui a mené des recherches sur la désinformation sur des plateformes comme YouTube, a été l'une de celles qui ont repéré et alerté Rappler à propos de la vidéo deepfake. Elle a déclaré : « Tout d'abord, elle (la vidéo deepfake) tente de promouvoir une arnaque. Deuxièmement, elle fait apparaître l'arnaque comme un reportage, en se faisant passer pour Rappler et CNN Philippines, ce qui porte atteinte à la crédibilité des organismes de presse. Troisièmement, elle est clairement motivée par le fait de discréditer Maria Ressa en ternissant sa réputation. » Soriano a ajouté que le deepfake « perpétue également une tendance inquiétante de pratiques misogynes, en utilisant des deepfakes pour humilier les femmes. Même si l'arnaque elle-même échoue, elle expose et perpétue quand même les trois derniers, en les diffusant dans les publics en réseau. » ##### Lutter contre la menace des deepfakes Il existe un consensus général parmi les groupes de vérification des faits et les experts en désinformation pour dire que le problème des deepfakes ne fera que continuer à croître à l'avenir, maintenant que les technologies d'IA génératrice sont facilement accessibles aux citoyens ordinaires. Il est donc essentiel d'agir de manière nuancée et immédiate sur les plateformes pour atténuer leur impact. Dans diverses déclarations publiques, les plateformes utilisées pour diffuser le deepfake bitcoin de Maria Ressa -- Facebook et Microsoft -- ont toutes deux déclaré avoir des programmes pour lutter contre les deepfakes. Dans une déclaration récemment publiée, Meta, le propriétaire de Facebook, a déclaré qu'il travaillait avec des partenaires du secteur sur des normes techniques communes pour identifier le contenu de l'IA, y compris la vidéo et l'audio. Il a déclaré qu'il étiquetterait les images que les utilisateurs publient lorsqu'ils détecteront ces indicateurs standard du secteur. Il a également déclaré qu'il étiquetait les images photoréalistes créées à l'aide de Meta AI depuis le lancement du produit. Dans une interview par e-mail avec Rappler, un porte-parole de Microsoft a déclaré qu'ils avaient fermé 520 000 comptes impliqués dans des activités frauduleuses et trompeuses depuis avril 2023, en utilisant des méthodes à la fois automatisées et manuelles. L'entreprise a déclaré qu'elle s'appuyait sur sa base de connaissances à chaque incident pour l'aider à détecter des incidents similaires à l'avenir, et qu'elle avait institué des politiques d'intégrité des informations et de contenu trompeur. Le porte-parole de Microsoft a également déclaré qu'ils investissaient dans la technologie pour détecter les deepfakes. "L'IA est également exploitée pour identifier les deepfakes. Des acteurs majeurs comme Microsoft investissent massivement dans le développement de technologies pour détecter ces contrefaçons sophistiquées." Microsoft fait également partie d'un groupe d'entreprises technologiques et d'organismes de presse qui ont travaillé avec Adobe sur la Content Integrity Initiative, un effort qui promeut l'adoption d'une norme industrielle ouverte pour l'authenticité et la provenance du contenu. ##### Défis de la détection des faux générés par l'IA La détection automatisée des faux générés par l'IA présente toutefois des défis. Le porte-parole de Microsoft a déclaré que les mauvais acteurs utilisent des techniques sophistiquées pour échapper à la détection. « La technologie de l'IA progresse à un rythme sans précédent, conduisant à l'émergence quotidienne de nouvelles plateformes dans le monde entier qui permettent la création de deepfakes. Idéalement, les entreprises produisant ce type de contenu mettraient en œuvre le filigrane ou des technologies similaires pour faciliter la détection. Cependant, il existe des défis : une technologie capable de supprimer les filigranes existe déjà », a déclaré le porte-parole. La plupart des technologies de création de deepfakes sont également open source, faisant référence à des logiciels mis à disposition gratuitement et pouvant être redistribués et modifiés par n'importe qui. Microsoft affirme que cela permet de modifier ou de supprimer le code de filigrane, « compliquant les efforts de détection ». La pratique consistant à rendre le code source des grands modèles de langage (LLM) accessible à tous pour qu'ils puissent l'examiner, le copier et le modifier a joué un rôle essentiel dans l'accélération du développement des technologies d'IA générative. En fait, même les grandes entreprises technologiques ont publié des versions de leurs propres LLM au public. En juillet 2023, Meta a publié une version open source de Llama, son modèle d'intelligence artificielle. Plus récemment, Google a également publié Gemma, la version open source de Gemini, son modèle d'IA propriétaire. Si l'open source du modèle de langage peut contribuer à le rendre plus transparent et plus vérifiable, certains experts notent que la plus grande menace pour les systèmes d'IA non sécurisés réside dans la facilité d'utilisation abusive, ce qui rend ces systèmes « particulièrement dangereux entre les mains d'acteurs malveillants sophistiqués ». #### Prévenir les abus de l'IA et responsabiliser les faussaires Étant donné que même le code source des modèles d'IA est désormais accessible à tous et qu'ils peuvent le modifier librement, il devient très important de pouvoir retracer la source d'un deepfake particulier. Comme illustré ci-dessus, les personnes derrière les faux laissent généralement des traces de leur identité lorsqu'elles utilisent des systèmes numériques. Cependant, une grande partie des données qui pourraient permettre de retracer les acteurs responsables résident toujours sur les plateformes. « Le plus grand défi de la désinformation n'est pas les mensonges, mais le manque de responsabilité de ceux qui diffusent les fausses informations », a déclaré Qurium. Le groupe suédois a également critiqué les plateformes comme Meta et d'autres qui en profitent et permettent à la désinformation de prospérer. Le porte-parole de Microsoft a reconnu que l'utilisation des deepfakes est « une menace nouvelle et émergente » et que les plateformes doivent faire davantage. « Nous devons faire plus chez Microsoft, et il y a un rôle à jouer pour l'ensemble de l'industrie, le gouvernement et d'autres acteurs. » L'entreprise a déclaré qu'en plus de travailler avec les forces de l'ordre et d'autres mesures juridiques et techniques, elle a également récemment « contribué à faire avancer une initiative sectorielle visant à lutter contre l'utilisation de deepfakes pour tromper les électeurs du monde entier, et nous avons plaidé en faveur de cadres législatifs pour lutter contre l'utilisation abusive de l'IA. » Un porte-parole de Meta a déclaré à Rappler par e-mail : « Les normes communautaires de Meta s'appliquent à tous les contenus et publicités sur Facebook, qu'ils soient créés par une IA ou par une personne, et nous continuerons à prendre des mesures contre les contenus qui enfreignent nos politiques. Nous avons supprimé la vidéo signalée pour violation de nos politiques en matière de fraude et de tromperie. » Reste à savoir si ces mesures suffiront à faire face à l'avalanche de deepfakes, à laquelle ceux qui luttent contre la désinformation s'attendent à devoir faire face de plus en plus dans les mois à venir. Quelques jours après que Microsoft a supprimé la publicité faisant la promotion du site ultimainv.website, une nouvelle publicité est réapparue sur la plateforme. La publicité renvoyait vers un site avec le même contenu que le site d'imposteur de Rappler mentionné précédemment, mais sur un autre domaine nouvellement créé. Le jeu du whack-a-mole continue. -- Rappler.com

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd