Incidents associés

Rami Niémi
"Le président Trump est une merde complète et totale." C'est ce qu'a annoncé Barack Obama, dans une vidéo diffusée sur YouTube en début d'année. Inhabituel, certes, mais cela paraissait bien réel. Il s'agissait cependant d'une vidéo falsifiée réalisée - par BuzzFeed et l'acteur et réalisateur Jordan Peele - avec l'aide de l'intelligence artificielle. Une façon élégante d'attirer l'attention sur un problème qui mûrit rapidement.
Les deepfakes, comme ils ont été surnommés, sont la manifestation la plus récente – et peut-être la plus troublante – de l'évolution de la course aux armements de la désinformation numérique. Les images ont longtemps été trafiquées et les méthodes pour jouer avec l'audio s'améliorent également. Jusqu'à récemment, la manipulation et la création de vidéos étaient laborieuses, nécessitant des compétences d'expert et beaucoup de patience. Cependant, l'apprentissage automatique facilite et accélère de plus en plus le processus.
À la fin de l'année dernière, une nouvelle race de vidéos pornographiques a commencé à apparaître sur Reddit, grâce à un utilisateur nommé deepfakes. Grâce à l'apprentissage automatique, les deepfakes avaient compris comment échanger les visages des stars du porno avec ceux des célébrités. Les vidéos ont fait un peu de bruit. L'algorithme DeepFake a ensuite été publié sur GitHub, donnant à toute personne disposant d'un savoir-faire suffisant et d'un ordinateur suffisamment décent les moyens de créer des fakeries assez décentes.
Lire la suite Le test reCAPTCHA de Google trompé par l'intelligence artificielle Le test reCAPTCHA de Google trompé par l'intelligence artificielle
Depuis lors, des vidéos falsifiées de la même manière et des logiciels connexes ont fait leur apparition partout sur Internet. Certains sont relativement inoffensifs. Un outil - inspiré de l'algorithme original de deepfakes - a été principalement utilisé pour insérer le visage de Nicolas Cage dans des films dans lesquels il n'est pas apparu. Mais il existe clairement un potentiel malveillant. Il est facilement concevable qu'une vidéo bien truquée puisse exacerber les tensions géopolitiques, déclencher des troubles ou intensifier la criminalité. La confiance pourrait être rapidement érodée dans les institutions, les médias et même les systèmes politiques. Une préoccupation viable est que l'évolution technologique dépasse l'élaboration de politiques gouvernementales appropriées.
Heureusement, la communauté scientifique est sur l'affaire. Une équipe, dirigée par Siwei Lyu de l'Université d'Albany, à New York, a trouvé une faille dans le faux. L'algorithme DeepFake crée des vidéos à partir des images qui lui sont fournies. Bien que suffisamment précise, l'IA ne parvient pas à reproduire parfaitement tous les signaux physiologiques que les humains émettent naturellement. Lyu et son équipe se sont concentrés sur un en particulier : le clignotement. Les humains clignotent généralement spontanément environ une fois toutes les deux ou trois secondes. Mais comme les photos de personnes n'ont généralement pas les yeux fermés, la formation de l'algorithme sur celles-ci signifiera que les personnes dans les vidéos clignotent rarement non plus.
Alors Lyu et son équipe ont conçu un algorithme d'IA pour détecter où le clignotement était absent dans les vidéos truquées. Leur algorithme - une combinaison de deux réseaux de neurones - détecte d'abord les visages, puis aligne toutes les images continues de la vidéo, avant d'analyser les régions oculaires de chacune. Une partie du réseau décide si le visage a les yeux fermés ou non. L'autre sert de système de mémoire, se souvenant de la décision d'une image à l'autre, pour déterminer si le clignotement a eu lieu au fil du temps.
Tout d'abord, ils ont formé l'IA sur un ensemble de données étiqueté d'images avec les yeux ouverts et fermés. Pour le tester, ils ont généré leur propre ensemble de vidéos DeepFake et ont même fait un peu de post-traitement pour lisser davantage les contrefaçons.
Les résultats étaient impressionnants. Selon Lyu, leur IA a identifié toutes les fausses vidéos.
Lire la suite Les startups exploitent la définition floue de l'IA pour profiter du battage médiatique Les startups exploitent la définition floue de l'IA pour profiter du battage médiatique
Ce n'est pas un énorme défi d'ajouter un clignotement manuel avec le post-traitement, explique Lyu, et certaines vidéos truquées - y compris la contrefaçon de BuzzFeed - contiennent en effet un clignotement. Néanmoins, ce genre de stratégie servira à frustrer et retarder le processus de création de vidéos truquées, avec cet algorithme au moins. « Nous formons la première ligne de défense », déclare Lyu. "À long terme, c'est vraiment une bataille permanente entre les gens qui font de fausses vidéos et ceux qui les détectent."
Cette étude s'inscrit dans une démarche plus large. La recherche a été parrainée par la Defense Advanced Research Projects Agency (DARPA), dans le cadre de son programme Media Forensics, un projet qui s'étend de 2016 à 2020. Leur objectif est de développer un ensemble d'outils pour vérifier l'authenticité et la véracité des données produites numériquement. informations telles que l'audio et la vidéo.
"Nous voulons donner au public l'assurance qu'il existe une technologie capable de lutter contre cette vague de faux médias et de fausses nouvelles", déclare Lyu.
Pour Lev Manovitch, professeur d'informatique à l'Université de New York, c'est aussi un exemple d'une tendance croissante à la concurrence entre les IA. "Nous savons bien que l'analyse informatique des données peut souvent détecter des modèles qui peuvent être invisibles pour un humain", explique-t-il, "mais qu'en est-il de la détection de modèles laissés par une autre IA ? Verrons-nous à l'avenir la "guerre" culturelle entre l'IA,