Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 684

Incidents associés

Incident 3929 Rapports
Deepfake Obama Introduction of Deepfakes

Loading...
'Deep fakes' : comment savoir ce qui est vrai à l'ère de la vidéo fake-Obama
abc.net.au · 2018

Un réseau de neurones s'est entraîné sur des heures d'images pour produire cette vidéo de synchronisation labiale du président Barack Obama.

Ça commence toujours par du porno.

Qu'est-ce qui a d'abord révélé le pouvoir d'Internet à diffuser des informations ? L'explosion immense et immédiate du contenu pour adultes, bien sûr.

Le porno a toujours été un canari fiable dans la mine de charbon, donc la vidéo "deep fakes" Vice trouvée fin 2017 attire l'attention des législateurs.

À l'aide de plateformes d'apprentissage automatique gratuites, les utilisateurs de Reddit ont superposé le visage de Gal Godot de Wonder Woman sur le corps d'une actrice porno dans une vidéo de sexe effrayante et presque convaincante.

Des chercheurs utilisent la "capture de visage en temps réel" sur le président russe Vladimir Poutine.

"C'était prévisible à 100%", a déclaré Hany Farid, professeur d'informatique au Dartmouth College, spécialisé dans la criminalistique numérique.

Le Dr Farid pense que nous sommes à la croisée des chemins – nous pouvons encore dire quand les vidéos ont été trafiquées. Mais pour combien de temps ?

La démocratisation de l'apprentissage automatique a commencé. Il en va de même pour la recherche de nouvelles façons de trier les faits de la fiction.

Une crise publique

Barack Obama a été conçu pour la synchronisation labiale. Des chercheurs allemands ont contrôlé le visage de Vladimir Poutine.

Le Dr Mehrtash Harandi, un scientifique senior qui étudie l'apprentissage automatique chez Data61, a déclaré que la sortie de ces machines d'apprentissage en profondeur est souvent floue.

Si vous faites attention, vous pouvez voir que les mouvements des lèvres ne correspondent pas entièrement au discours. Les dents sont notoirement difficiles à synthétiser de manière réaliste.

Mais la technologie va s'améliorer, et rapidement.

Au-delà de la moralité des "deep fakes" pornographiques, une vidéo altérée de Donald Trump, par exemple, pourrait avoir de graves conséquences géopolitiques.

Des vidéos trafiquées pourraient montrer des politiciens « acceptant des pots-de-vin, prononçant des épithètes raciales ou se livrant à l'adultère », ont suggéré les professeurs de droit américains Bobby Chesney et Danielle Citron sur le blog Lawfare.

Même un faux de mauvaise qualité, s'il est déployé à un moment critique comme la veille d'une élection, pourrait avoir un impact.

"La confiance du public peut être ébranlée, quelle que soit la crédibilité de la réfutation par le gouvernement des fausses vidéos."

Les politiciens américains veulent que quelque chose soit fait.

"Nous aurons tous besoin d'une forme d'authentification de notre identité par la biométrie. De cette façon, les gens sauront si la voix ou l'image est réelle ou provient d'un imitateur", a déclaré le membre du Congrès Ro Khanna à The Hill.

Il a suggéré que la Defense Advanced Research Projects Agency des États-Unis crée un "protocole Internet sécurisé" pour authentifier les images.

Comment authentifier le contenu ?

Un filigrane ou une "clé" numérique pour identifier un contenu authentique pourrait être un outil utile, a suggéré le Dr Harandi.

Mais il y a eu peu de progrès vers un protocole mondial sur ces questions. "En ce moment, c'est un gâchis", a-t-il déclaré.

En réponse au blog des professeurs Chesney et Citron, Herb Lin, chercheur principal en cyberpolitique à l'Université de Stanford, a suggéré que les fournisseurs de technologies pourraient créer des "signatures numériques" qui seraient attribuées à l'acheteur.

Bien que, comme l'a souligné le Dr Lin, les clés cryptées déjà insérées dans les appareils photo numériques ont été piratées.

Le Dr Farid n'est pas sûr qu'il existe une réponse facile.

Nous pourrions ajouter une empreinte digitale à une image via le capteur de l'appareil photo d'un smartphone, par exemple. Pourtant, il y aurait des millions d'appareils sans cette technologie - toute la technologie de caméra préexistante dans chaque pays, a-t-il déclaré.

Devrions-nous maintenant considérer toutes les images et vidéos passées comme fausses, par défaut ?

Ensuite, il y a le pire scénario : se fier à cette clé — ce symbole de vérité — alors qu'elle est totalement incertaine.

"Toute technologie qui vous permettra de prendre des empreintes digitales, l'adversaire va trouver comment la retirer, manipuler le contenu, puis remettre cette empreinte", a déclaré le Dr Farid.

"C'est presque garanti."

L'éthique des « deep fakes »

Il faut beaucoup de vidéo pour produire une vidéo "deep fake" convaincante. C'est pourquoi les personnes célèbres sont les plus vulnérables — pour l'instant.

"Entraîner notre système sur une autre personne, comme une non-célébrité, peut être assez difficile en raison de la difficulté d'obtenir des heures de données d'entraînement", ont écrit les chercheurs qui ont créé la synchronisation labiale de M. Obama dans leur rapport.

Leur travail a utilisé 17 heures de vidéo.

Cependant, un réseau formé sur l'ancien dirigeant américain pourrait être retravaillé pour une autre personne avec moins de données de formation supplémentaires à l'avenir, a suggéré le Dr Harandi.

Au fur et à mesure que ces technologies s'amélioreront, les faux contenus pourront être synthétisés en utilisant moins d'images. Et ces images pourraient provenir de n'importe où, a déclaré le Dr Farid.

"Si vous avez mis sur Facebook littéralement des centaines ou des milliers d'images de vous qui ont été taguées au cours des dernières années, vous êtes maintenant exposé", a-t-il déclaré.

On craint que si une fausse vidéo correspond à nos convictions politiques personnelles, il pourrait être difficile de ne pas y croire même lorsqu'il existe une preuve de son inauthenticité.

Pour être sauvés de nous-mêmes, le gouvernement ou les technologues eux-mêmes devront peut-être trouver des garde-fous.

Le Dr Farid pense que les chercheurs ne réfléchissent pas suffisamment aux outils qu'ils développent.

"Que nous soyons des biologistes travaillant sur des virus tueurs ou des technologues travaillant sur l'apprentissage automatique, [nous devons]

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd