Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 671

Incidents associés

Incident 3929 Rapports
Deepfake Obama Introduction of Deepfakes

Loading...
Un outil d'IA génère de faux discours du président Obama
thedrum.com · 2017

Il n'est peut-être plus président de la Maison Blanche, mais l'ancien président américain Barack Obama prononce encore quelques discours présidentiels, même si tout n'est pas comme il paraît.

Bien qu'il ressemble et sonne exactement comme la vraie affaire, le nouvel Obama est en fait une construction numérique soigneusement conçue par des chercheurs de l'Université de Washington qui ont introduit 14 heures de discours authentiques dans un réseau neuronal qui a tellement regardé de manière excessive qu'il peut maintenant générer de nouvelles clips indiscernables de la réalité.

Le résultat est que les chercheurs sont désormais capables de mettre les mots de leur choix dans la bouche de leur marionnette photoréaliste, modélisant le mouvement de ses lèvres pour imiter les tics et les manières réels d'Obama.

Interrogé par la BBC pour savoir si nous devrions être perturbés par le faux président, le professeur Ira Kemelmacher-Sclizerman de l'Université de Washington, a déclaré : « Chaque technologie peut être utilisée de manière négative et nous devons donc tous travailler pour nous assurer que cela ne fonctionne pas. se produire. Une fois que vous savez comment créer quelque chose, vous pouvez faire de l'ingénierie inverse et ainsi vous pourriez identifier des méthodes pour identifier ce qui est une vidéo éditée et ce qui est une vraie vidéo.

Les tentatives passées de produire des représentations réalistes de personnages identifiables ont trébuché dans la soi-disant «Uncanny Valley» où de légères différences dans le mouvement de la bouche sont captées inconsciemment par les téléspectateurs, incitant le développement d'algorithmes personnalisés capables de fournir la précision requise.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd