Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 681

Incidents associés

Incident 3929 Rapports
Deepfake Obama Introduction of Deepfakes

Comment synthétiser une fausse vidéo d'Obama avec des réseaux de neurones artificiels
thenewstack.io · 2017

Il semble que de nos jours, il ne se passe pas un jour sans que quelqu'un ne proclame les "fausses nouvelles" - cette phrase désormais tristement célèbre qui a pris de l'importance lors des dernières élections américaines et qui est maintenant diffusée jusqu'à la nausée.

Mais comme toute personne intelligente le sait, il est vrai que vous ne pouvez pas toujours croire ce que vous lisez ou voyez sur (ou hors) Internet. Les fausses images photoshoppées abondent sur Internet, grâce à la technologie de retouche photo qui permet aux gens de créer des situations mises en scène qui semblent réelles, mais qui ne se sont jamais réellement produites.

Maintenant, avec l'aide de l'intelligence artificielle, nous pourrions également être confrontés à la perspective d'une explosion de fausses vidéos d'actualités. C'est du moins ce que nous pourrions supposer à partir de ces nouvelles découvertes de chercheurs de l'Université de Washington, qui ont créé cette vidéo plutôt convaincante mais fausse de l'ancien président américain Barack Obama, en utilisant un réseau neuronal artificiel formé sur de nombreuses heures de séquences vidéo mettant en vedette l'ancien président, recouvert d'un clip audio réel de lui parlant l'année dernière des fusillades de masse d'Orlando. Regardez et voyez si vous pouvez déterminer ce qui est réel et ce qui ne l'est pas, et comment cela a été fait :

Selon l'article des chercheurs, ils ont utilisé ce qu'on appelle un réseau neuronal récurrent (RNN), un type de réseau neuronal artificiel qui organise les nœuds de neurones artificiels pour qu'ils fonctionnent d'une manière qui ressemble au cerveau humain. Ces réseaux sont alimentés en quantités massives de données afin «d'apprendre» comment effectuer une tâche ou résoudre un problème.

Nous avons vu des réseaux de neurones récurrents appliqués à des choses comme la reconnaissance vocale, la synthèse vocale - tout ce qui nécessite une sorte de mémoire interne pour traiter différentes séquences d'entrées.

Dans ce cas, les chercheurs ont relevé l'audio d'Obama parlant dans une vidéo séparée et l'ont doublé sur une autre vidéo de lui dans un endroit complètement différent. En utilisant environ 14 heures de séquences dans le domaine public et provenant des annonces hebdomadaires d'Obama, le réseau neuronal récurrent a pu "apprendre" comment recréer un composite des mouvements du visage et de la bouche qui correspondaient à divers sons.

Pour ce faire, le réseau de neurones a synthétisé une "forme de bouche clairsemée", au-dessus de laquelle des textures de bouche pourraient ensuite être appliquées et mélangées dans une vidéo cible modifiée, donnant à la tête parlante une apparence de mouvement naturel. Le résultat est une synchronisation labiale étrangement plausible.

Étonnamment, ce n'est pas la première fois que des chercheurs tentent de faire ce genre de chose. Comme mentionné dans la vidéo ci-dessus, il existe d'autres versions du même concept, mais cette fois-ci, l'équipe de l'Université de Washington a ajouté un délai au processus pour rendre les résultats beaucoup plus réalistes.

De plus, le réseau neuronal s'est concentré sur la synthèse des parties du visage les plus associées à la production de la parole - à savoir la bouche et la zone environnante, les lèvres et les dents, une attention particulière étant accordée aux rides et ombres subtiles de la peau qui seraient faite en parlant. Même la ligne de la mâchoire est déformée pour correspondre au menton dans la vidéo cible.

"Compte tenu de la forme de la bouche à chaque instant, nous synthétisons une texture de bouche de haute qualité et la composons avec une correspondance de pose 3D appropriée pour modifier ce qu'il semble dire dans une vidéo cible pour correspondre à la piste audio d'entrée", a écrit l'équipe. "Notre approche produit des résultats photoréalistes."

Mais la fabrication de fausses nouvelles n'est pas l'intention principale ici. L'équipe de recherche prévoit que la technologie pourrait être utilisée pour d'autres applications plus pratiques.

"La conversion audio-vidéo réaliste a des applications pratiques telles que l'amélioration de la visioconférence pour les réunions, ainsi que des applications futuristes telles que la possibilité de tenir une conversation avec un personnage historique dans la réalité virtuelle en créant des visuels uniquement à partir de l'audio", a déclaré l'étude co- auteur Ira Kemelmacher-Shlizerman sur ScienceDaily. "C'est le genre de percée qui aidera à permettre ces prochaines étapes."

Et même si la technologie est utilisée pour manipuler les masses à des fins politiques, cette même technologie peut être utilisée pour déterminer si une vidéo est réelle ou si elle a été truquée – en détectant les mouvements mélangés des dents et de la bouche.

"Cela peut ne pas être perceptible par les yeux humains, mais un programme qui compare le flou de la région de la bouche au reste de la vidéo peut facilement être développé et fonctionnera de manière assez fiable", a déclaré le co-auteur de l'article Supasorn Suwajanakorn à IEEE Spectrum.

Un confort froid, peut-être, mais au moins c'est un avertissement juste pour ce à quoi nous pourrions nous attendre pour l'avenir.

Images : Université de Washington

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 9427ecd