Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 670

Incidents associés

Incident 3929 Rapports
Deepfake Obama Introduction of Deepfakes

Loading...
Cette vidéo AI de Barack Obama est l'avenir inquiétant des fake news
notebookcheck.net · 2018

Un exercice de création d'une fausse vidéo humoristique de Barack Obama est en réalité un aperçu troublant de la façon dont l'IA peut être utilisée pour manipuler les gens ordinaires. Ironiquement, il s'avère que l'IA pourrait également être notre sauveur des fausses nouvelles en même temps.

Travailler pour Notebookcheck Êtes-vous un technicien qui sait écrire ? Alors rejoignez notre équipe ! Actuellement recherché :

Rédacteur en chef - Détails ici

On a beaucoup parlé du phénomène des fausses nouvelles, du trucage des élections et de la manipulation des électeurs. Bien qu'il y ait certainement des membres du public qui sont crédules, au moins la personne moyenne pourrait repérer une fausse vidéo à un kilomètre de distance. Jusqu'à présent, c'est le cas. La vidéo intégrée ci-dessous de Barack Obama livrant un faux message d'intérêt public a été créée par Jordan Peele et Buzzfeed et vous laissera sans aucun doute que notre avenir imaginé est vraiment ici et maintenant.

La maison de production de Peele a développé la vidéo en utilisant Adobe After Effects et FakeApp, l'outil d'échange de visage de choix pour créer du faux porno. FakeApp est alimenté par l'intelligence artificielle et est si puissant qu'il peut être rendu en temps réel. Lorsque vous prenez en compte d'autres technologies en développement qui incluent la possibilité de simuler la voix de quelqu'un en utilisant l'IA pour apprendre à partir d'un court clip audio de la personne réelle (Lyrebird) et la possibilité de modifier le dialogue audio comme vous le feriez avec une photo (Adobe Project VoCo), il va devenir très difficile de distinguer le vrai du faux.

Ironiquement, c'est peut-être l'IA qui aide à venir à la rescousse. L'IA est également appliquée pour repérer les usurpations et un avenir proche où l'IA analyse les actualités, les vidéos et d'autres sources d'informations en temps réel pour identifier la falsification semble inévitable. Mais seulement pour ceux qui ont la technologie. On espère seulement que des entreprises comme Facebook et YouTube appliqueront ces technologies dès que possible dans leurs services respectifs, sinon il n'est pas trop difficile d'imaginer un autre scénario de type La Guerre des mondes où quelque chose qui a été authentiquement recréé pour ressembler, sonner ou l'impression que la vraie chose est mal interprétée comme telle par un public sans méfiance.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd