Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3394

Incidents associés

Incident 60615 Rapports
Deepfaked Advertisements Using the Likenesses of Celebrities Such as Tom Hanks and Gayle King Without Their Consent

Loading...
Ces derniers Deepfakes de célébrités montrent à quel point les escroqueries sont devenues avancées
lifehacker.com · 2023

Depuis que le Web existe, ce conseil reste vrai : « Ne croyez pas tout ce que vous voyez sur Internet ». Qu’il s’agisse d’un blog personnel, d’un tweet, d’une vidéo YouTube ou d’un TikTok, n’importe qui peut dire n’importe quoi ici, et il est difficile de savoir s’il a raison ou non (ou même s’il dit la vérité).

Mais nous sommes à un point d’inflexion dans la culture Internet : l’IA générative a atteint un stade effrayant, avec une technologie suffisamment performante pour imiter l’image de célébrités et faire dire à ces « clones » ce qu’ils veulent. Pour ceux qui sont au courant, ces deepfakes ne sont peut-être pas encore convaincants, mais qu’en est-il de l’utilisateur moyen des médias sociaux ? Il semble que nous approchons rapidement du point où le grand public commencera à croire que ces vidéos frauduleuses sont réelles, et c’est une pensée effrayante.

Il y a trois exemples très médiatisés de cela au cours de la semaine dernière. Le premier est Tom Hanks : l'acteur a posté sur son Instagram une capture d'écran d'une vidéo faisant la promotion d'un « plan dentaire », avec un porte-parole qui ressemble à Tom Hanks s'il se faisait réinstaller les dents. La vidéo elle-même ne semble pas être publique et Hanks ne l’a pas partagée ni le nom de la société qui en fait la promotion. Mais l’hypothèse est qu’une entreprise ou une personne a fait un deepfake de Tom Hanks pour vendre un produit dentaire. Comme je l'ai mentionné, en regardant attentivement l'image, vous pouvez déjà dire qu'il y a quelque chose de « bizarre » dans son visage, et si nous avions pu voir la vidéo, il est probable que le mouvement aurait l'air raide et étrange de la vallée qui est ainsi de nombreux deepfakes d’IA l’ont.

Mais M. Hanks était loin d'être la seule célébrité cette semaine à s'occuper d'un problème de deepfake. Gayle King, l'une des présentatrices de CBS Mornings, a publié un deepfake sur son compte Instagram, déclarant que les gens continuent de lui envoyer la vidéo et qu'elle n'a rien à voir avec cela. Cette fois, elle a partagé la vidéo originale sur laquelle le deepfake est basé, une vidéo innocente de King discutant de la présence de Bruce Springsteen dans son émission.

Les observateurs attentifs pourront dire que la première vidéo est fausse : les mouvements des lèvres ne correspondent pas à l'audio, et bien que l'audio ressemble à la voix de King, il est trop raide, comme si elle faisait semblant d'être un mauvais acteur en lisant un scénario. Je suis sûr que tous ceux d’entre nous qui sont sensibles aux limites des deepfakes et de l’IA générative remarqueront immédiatement les signes révélateurs, mais je ne suis pas convaincu que tout le monde verra cela comme un faux immédiat.

Troisièmement, la sensation Internet M. Beast devient actuellement virale pour une publicité deepfake qui est présentée aux utilisateurs de TikTok, moi y compris. Dans ce document, « M. Beast » félicite le téléspectateur d’avoir fait partie des 10 000 utilisateurs sélectionnés pour gagner un iPhone 15 Pro pour seulement deux dollars. Quel chanceux êtes-vous!

La vidéo en question est l’une des meilleures que j’ai vues, même si elle présente également des problèmes évidents. Celui qui a réalisé celui-ci a pris soin de rendre M. Beast plus expressif lorsqu'il parlait, dans le but de rendre l'ensemble de l'interaction plus naturelle. Je pense que cela pourrait être efficace pour certains, mais, encore une fois, ce n’est pas à 100 %. Regarder la vidéo en sachant qu’elle est fausse fait remonter toutes les imperfections à la surface.

Même si vous pensez qu'il est évident que ces exemples sont faux, comme le dit Marques Brownlee, c'est la pire que cette technologie puisse être. Les deepfakes ne feront que s’améliorer, dans le but ultime d’être impossibles à distinguer de la vraie vidéo.

Si vous avez apprécié l’une des reprises de chansons d’IA qui explosent partout sur Internet, vous savez à quel point la technologie s’améliore. Le doubleur de Plankton de Spongebob devrait à juste titre s'inquiéter de l'excellence de ces couvertures, comme la couverture de Plankton de Beggin'. Frank Sinatra est peut-être mort quand Dua Lipa avait deux ans, mais cette reprise AI de lui chantant Levitating est un bop.

Cette technologie peut même traduire votre discours et le doubler en temps réel, avec votre voix. Bien qu'il existe une multitude d'applications offrant cette capacité, [même Spotify la teste](https://newsroom.spotify.com/2023-09-25/ai-voice-translation-pilot-lex-fridman-dax -shepard-steven-bartlett/) pour traduire les podcasts avec la voix des animateurs.

À ce stade, les meilleurs deepfakes sont uniquement audio, et même dans ce cas, ils ont toujours des problèmes de précision. Mais que se passe-t-il lorsqu’un mauvais acteur peut créer une fausse publicité pour Mr. Beast qui séduit la plupart des gens ? Imaginez un M. Beast vraiment convaincant disant directement aux fans jeunes et impressionnables : « Tout ce que vous avez à faire pour participer à mon concours est de saisir vos informations bancaires, afin que je puisse vous transférer directement les gains. » Peut-être que le « concours » aura lieu dans un « Mr. Beast app », qui installe des logiciels malveillants sur votre appareil.

Bien entendu, il existe des scénarios plus effrayants à envisager. Nous approchons d’une élection présidentielle l’année prochaine. Quelle sera la qualité de la technologie deepfake d’ici novembre 2024 ? Quelqu’un ouvrira-t-il TikTok avant de se rendre aux urnes pour regarder un deepfake de Joe Biden disant que son objectif ultime est d’emprisonner ses ennemis politiques ? Ou peut-être celui de Donald Trump disant à ses partisans de se présenter armés aux urnes ?

Soyez diligent lorsque vous regardez des vidéos en ligne

Les sociétés de médias sociaux doivent être plus proactives et s’attaquer à ces fausses vidéos avant qu’elles ne se propagent à d’autres, mais nous avons également un rôle à jouer dans tout cela. Nous devons être prudents, plus que jamais, lorsque nous parcourons et cliquons avec désinvolture sur notre grand Internet. Ce n’est pas parce que vous voyez une vidéo d’une « célébrité » disant quelque chose ou approuvant un produit que cela devient réel, plus maintenant. Vérifiez soigneusement le compte sur lequel il est publié : s'il s'agit censément de la vraie personnalité, leur compte doit être vérifié (sauf si nous parlons d'une plate-forme inutile comme X, auquel cas toutes les publications doivent être traitées comme fausses, sauf preuve contraire sans équivoque).

En attendant que les deepfakes deviennent vraiment bons, il existe encore de nombreux signaux d'alarme qui vous indiquent quand quelque chose est illégitime. Les mouvements des yeux et de la bouche sembleront étranges, par exemple. Regardez cette vidéo de M. Beast : alors qu'ils ont fait de leur mieux pour le rendre expressif, ses yeux sont plutôt vides pour cette première moitié du clip. Et même s’ils correspondent bien aux mouvements des lèvres, de nombreux deepfakes ne sont pas encore bons dans ce domaine.

Beaucoup de ces vidéos sont également de très mauvaise qualité. En effet, l’augmentation de la résolution révèle à quel point la vidéo est bizarre. Les Deepfakes s'appuient sur une vraie vidéo d'une personne, qu'il s'agisse d'une célébrité ou non, puis superposent le visage de la célébrité sur cette vidéo et la manipulent à leur guise. Il est assez difficile de faire cela en haute résolution sans problèmes de fusion, vous voyez donc les calques se superposer les uns aux autres.

Une bonne dose de scepticisme est très utile sur Internet. Maintenant que l’IA générative prend le relais, augmentez autant que possible votre scepticisme.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd