Incidents associés
MANILLE, Philippines --- Le sénateur Ronald « Bato » Dela Rosa a partagé sans complexe une vidéo générée par l'IA montrant des étudiants philippins opposés à la destitution de la vice-présidente Sara Duterte.
La vidéo de 30 secondes qu'il a republiée le dimanche 15 juin a rapidement été vue des millions de fois, ainsi que des milliers de commentaires et de partages d'utilisateurs qui la croyaient authentique.
La vidéo montrait une interview inventée de toutes pièces, où des étudiants générés par l'IA étaient interrogés sur leur soutien à la destitution. Les faux étudiants ont déclaré s'y opposer, arguant que le bureau du vice-président était « pointé du doigt » pour des fonds confidentiels.
Lorsque Dela Rosa a partagé la vidéo sur Facebook, sa légende suggérait qu'il ignorait peut-être qu'elle était générée par l'IA, malgré le hashtag « #AI » figurant dans la publication originale.
« Mabuti pa ang mga bata nakakaintindi sa mga pangyayari. Makinig kayo mga yellow and mga communista ! » pouvait-on lire en légende de la publication.
(Même les enfants comprennent ce qui se passe. Écoutez bien, vous les jaunes et les communistes !)
Cet argument est un cas classique de whataboutisme, qui tente de détourner l'attention des allégations de corruption en s'interrogeant sur l'utilisation de fonds confidentiels par d'autres agences.
Des fonctionnaires partagent des vidéos d'IA ?
La publication a suscité des critiques de la part d'utilisateurs qui ont averti que, compte tenu de sa position, le partage de contenus aussi trompeurs pourrait amener beaucoup de personnes à croire que ces vidéos sont réelles.
Au lieu d'aborder directement l'authenticité de la vidéo, Dela Rosa a répondu à un commentaire par un « kung (si) » évasif. Il a déclaré que ce qui comptait le plus, c'était le message, qu'il approuvait, quelle que soit son authenticité.
« L'IA est tellement puissante qu'elle ne peut pas nous donner de conseils, mais elle est tellement puissante qu'elle ne peut pas nous donner de conseils », a-t-il déclaré.
(J'ai dit : si c'est de l'IA, celui qui l'a créée a raison ; si ce n'est pas de l'IA, alors les jeunes qui parlent ont raison.)
« Quoi qu'il en soit, l'argument est très clair et je suis d'accord avec lui. Je suis d'accord avec le message, pas avec le messager. Que ce soit une vidéo ou un message écrit, je suis d'accord avec le message qu'il véhicule », a ajouté Dela Rosa.
La journaliste philippine Regine Cabato, qui couvre la désinformation et les opérations d'influence, a déclaré à Philstar.com dans un message que les responsables comme Dela Rosa ont une « responsabilité plus grande » de ne pas devenir des « super-propagateurs » de faux contenus.
Cela est particulièrement vrai pour les législateurs comme lui, qui peuvent voter sur les affaires de destitution et devraient fonder leurs décisions sur des faits vérifiés, au lieu de rechercher des informations qui ne font que confirmer leurs propres préjugés, a-t-elle ajouté.
Si le sénateur a affirmé qu'il était acceptable d'être d'accord avec le message mais pas avec le messager, Cabato a soutenu que cela ignorait le fait que le média est aussi le message, rendant les deux indissociables.
**Comment le repérer. **Dans la section commentaires de la publication de Dela Rosa, certains utilisateurs des réseaux sociaux se sont empressés de lui dire que la vidéo qu'il avait partagée était générée par l'IA. D'autres ont même publié leurs analyses, montrant des signes révélateurs de manipulation artificielle.
Parmi les signaux d'alarme figuraient le texte absurde et illisible sur le polo de l'étudiant, qui portait deux logos différents, les noms brouillés des vendeurs ambulants à proximité et les numéros d'immatriculation de tricycle déformés.
Même avec des visuels de plus en plus réalistes, les vidéos générées par l'IA ne parviennent souvent pas à animer les mouvements naturels de la bouche et des dents. C’est l’un des indices clés pour repérer les contenus synthétiques autres que les doigts et les pupilles.
La vidéo virale porte le logo « Veo » dans le coin inférieur droit, indiquant qu'elle a été produite à l'aide de Veo 3, le dernier modèle d'IA de Google, capable de créer des vidéos très réalistes avec un son et une parole synchronisés à partir d'une simple invite de texte ou d'image.
Lors d'un point de presse lundi, Claire Castro, attachée de presse du Palace, a également déclaré que les responsables gouvernementaux devraient s'abstenir de partager des vidéos générées par l'IA, car cela pourrait nuire à la crédibilité des institutions publiques.
"L'hindi dit qu'il y a une opinion sur la désinformation. Nakakaduda, mais il n'y a rien à redire sur la désinformation et les fausses nouvelles", a-t-elle déclaré lors d'un point de presse lundi.
(Cela ne devrait pas provenir de représentants du gouvernement. C'est douteux ; la confiance s'érode encore davantage lorsque la désinformation et les fausses nouvelles proviennent de hauts fonctionnaires eux-mêmes.)
Échapper à la responsabilité
Dela Rosa, cependant, a négligé les dangers de la promotion de vidéos et d'images générées par l'IA, à forte connotation politique, qui, avec leurs visuels hyperréalistes, pourraient facilement tromper les spectateurs.
« Peu m'importe que ce message soit généré par l'IA ou par Manobo, car je ne m'en prends pas au messager, je m'en prends au message. Alors, s'il vous plaît, ne tirez pas sur le messager sans avoir lu le message qu'il délivre », a-t-il déclaré dans un message du 16 juin.
**Pourquoi c'est dangereux. **Les experts ont à plusieurs reprises mis en garde contre l'essor rapide des deepfakes et des contenus générés par l'IA qui alimente les campagnes de désinformation, dont beaucoup sont motivées par le profit, encouragées par la monétisation des vues et de l'engagement.
Aux Philippines, les deepfakes mettant en scène des personnalités publiques influentes ont été utilisés comme une arme soit pour redorer leur réputation, soit pour la salir avec de fausses allégations. Ce phénomène a également été observé lors des dernières élections. Cabato a cité la vidéo « polvoron » comme exemple d'utilisation de deepfakes à des fins politiques, la décrivant comme une « opération de démolition directe » contre le président Ferdinand « Bongbong » Marcos Jr. La vidéo, qui accuse Marcos de consommer des drogues illicites, a été partagée non seulement par des influenceurs pro-Duterte, mais aussi par des comptes douteux prétendument liés à la Chine.
« Cela signifie que des acteurs malveillants cherchent constamment à exploiter la vulnérabilité du public à l'IA, quel que soit son camp politique », a déclaré Cabato.
Ces tactiques renforcent l'influence des fermes à trolls et des campagnes de désinformation orchestrées, rendues plus efficaces par le manque de culture médiatique et numérique dans le pays.
Publié le 14 juin par la page Facebook AY GRABE, qui présente fréquemment des vidéos générées par l'IA avec de subtils avertissements, le clip viral a cumulé 7,6 millions de vues, 68 000 partages et près de 20 000 commentaires.
La vidéo s'est rapidement répandue, plusieurs comptes l'ayant republiée comme nouveau contenu. Certains ont édité la vidéo pour y inclure leurs réactions ou commentaires, contribuant ainsi à accroître l'engagement des publications similaires.
Cabato a souligné que les législateurs ne peuvent exercer efficacement leur mandat qu'en fondant leurs lois sur des données concrètes et des faits vérifiés. Sans cela, l'adoption des lois nécessaires à la protection du bien-être de la population et de la souveraineté du pays se heurterait à de grands obstacles.
« Comment pouvons-nous espérer que les législateurs adoptent des lois éclairées pour réglementer l'IA ou protéger notre cyberdéfense contre la Chine alors qu'ils diffusent eux-mêmes des deepfakes, simplement parce que cela leur dit ce qu'ils veulent entendre ? » a-t-elle demandé.