Incidents associés

Une vidéo d'une minute de Barack Obama a été vue plus de 4,8 millions de fois depuis avril. Il montre l'ancien président américain assis, avec le drapeau américain en arrière-plan, s'adressant directement au spectateur et utilisant une obscénité pour désigner son successeur, Donald Trump. Ou plutôt, ses lèvres bougent au fur et à mesure que les mots sont prononcés. La vidéo est en fait un soi-disant deep fake réalisé par l'acteur-réalisateur Jordan Peele, qui s'est fait passer pour la voix d'Obama. Peele a créé la vidéo pour illustrer les dangers du contenu audio et vidéo fabriqué représentant des personnes disant ou faisant des choses qu'elles n'ont jamais réellement dites ou faites. Des chercheurs de l'Université de New York décrivent les contrefaçons profondes comme une "menace à l'horizon".
- Qu'est-ce qui constitue un deep fake ?
Bien que la manipulation de fichiers numériques n'ait rien de nouveau, cette espèce de contrefaçon crédible est accomplie à l'aide de programmes informatiques qui utilisent une forme d'intelligence artificielle. Un algorithme est formé pour reconnaître des modèles dans des enregistrements audio ou visuels réels d'une personne en particulier, un processus connu sous le nom d'apprentissage en profondeur. Comme pour les images trafiquées, un élément de contenu peut être modifié en échangeant un nouvel élément – comme le visage ou la voix de quelqu'un d'autre – et en joignant les deux de manière transparente. Les manipulations sont les plus trompeuses lorsqu'elles sont combinées avec la technologie de clonage de la voix, qui décompose un enregistrement audio en morceaux d'une demi-syllabe qui peuvent être réassemblés en de nouveaux mots - la même méthode qui est utilisée pour créer des assistants vocaux comme Siri d'Apple et Alexa d'Amazon.
- Pourquoi certaines contrefaçons sont-elles plus crédibles que d'autres ?
Plus la bibliothèque de contenu avec laquelle un algorithme d'apprentissage en profondeur est alimenté est grande, plus le faux peut être réaliste. Le faux profond d'Obama a nécessité 56 heures d'enregistrements d'échantillons. Apple a enregistré 10 à 20 heures de parole pour créer Siri. Selon un certain nombre de rapports, des clones de voix peuvent être créés à partir d'un peu plus de quelques secondes de matériel.
- Comment cette technologie s'est-elle propagée ?
Motherboard, une publication de Vice, a rapporté en décembre qu'un utilisateur de Reddit appelé "deepfakes" avait mis à la disposition du public un algorithme permettant de créer de fausses vidéos à l'aide de code open source. Auparavant, la technologie était le domaine des universitaires et des chercheurs, mais maintenant n'importe qui peut l'utiliser. Il a décollé comme un moyen de créer de la fausse pornographie, généralement avec les visages de célébrités féminines cartographiés sur les corps de stars du porno pour dépeindre des actes sexuels qui n'ont jamais eu lieu. Reddit a interdit l'utilisateur "deepfakes", mais la technologie s'est répandue et est maintenant facilement disponible sur des applications telles que FakeApp.
- À part les pornographes, qui fait des faux ?
Dans ce qu'on appelle une course aux armements technologiques, les universités et les sociétés de recherche développent la technologie pour tester la puissance des contrefaçons profondes et pour y battre les praticiens infâmes. Des chercheurs de l'Université Carnegie Mellon ont récemment créé un système capable de transférer des caractéristiques, telles que les expressions faciales, d'une vidéo d'une personne à une image synthétisée d'une autre. Le chinois Baidu et une poignée de startups, dont Lyrebird et iSpeech, vendent le clonage de la voix à des fins commerciales dans les interfaces homme-machine.
- Pourquoi les gens sont-ils inquiets ?
La crainte est que les contrefaçons profondes puissent indûment détruire des réputations et même déclencher des troubles. Imaginez des vidéos falsifiées montrant un candidat présidentiel agressant des enfants, un chef de police incitant à la violence contre un groupe minoritaire ou des soldats commettant des crimes de guerre. Les personnalités de premier plan telles que les politiciens et les chefs d'entreprise sont particulièrement menacées, compte tenu du nombre d'enregistrements d'eux qui sont dans le domaine public. Pour les gens ordinaires, en particulier les femmes, la technologie rend le porno de vengeance possible même s'il n'existe aucune photo ou vidéo nue réelle. Une fois qu'une vidéo devient virale sur Internet, il est presque impossible de la contenir. Une préoccupation supplémentaire est que la sensibilisation aux contrefaçons profondes permettra aux personnes qui sont vraiment prises en train de faire ou de dire des choses répréhensibles de prétendre que les preuves contre elles sont fausses.
- Les contrefaçons peuvent-elles être détectées ?
Le type d'apprentissage automatique qui produit des contrefaçons profondes ne peut pas facilement être inversé pour les détecter. Les chercheurs ont identifié des indices qui pourraient indiquer qu'une vidéo est inauthentique - si le haut-parleur n'a pas cligné des yeux pendant un certain temps ou semble légèrement saccadé, par exemple - mais de tels détails pourraient facilement échapper à l'avis du spectateur. En améliorant la saturation des couleurs sur une vidéo d'une personne, il est possible de détecter son pouls à partir du changement presque invisible de la peau du visage ; une image réalisée à partir d'un méli-mélo de clips aurait un flux sanguin irrégulier ou inexistant. Le département américain de la Défense développe des outils pour contrer les deep fakes.
- Existe-t-il des utilisations bienveillantes ?
Oui. La société écossaise CereProc crée des voix numériques pour les personnes qui perdent la leur à cause de la maladie, et le clonage vocal pourrait servir un objectif éducatif en recréant le son de personnages historiques. Un projet à la North Carolina State University a synthétisé l'un des discours non enregistrés de Martin Luther King Jr. CereProc a créé une version de la dernière adresse écrite par le président John F. Kennedy, qui a été assassiné avant d