Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3388

Incidents associés

Incident 60615 Rapports
Deepfaked Advertisements Using the Likenesses of Celebrities Such as Tom Hanks and Gayle King Without Their Consent

Loading...
Annonces AI Deepfake : Tom Hanks et Gayle King, avertissement sonore
cnet.com · 2023

Tom Hanks est assez reconnaissable, qu'il porte une boîte de chocolats dans Forrest Gump ou qu'il porte une combinaison spatiale dans Apollo 13. Mais si vous voyez une annonce d'assurance dentaire avec sa photo, regardez-y à deux fois. Ce n'est pas vraiment l'acteur oscarisé.

"Méfiez-vous!" Hanks a écrit sur Instagram ce week-end. "Il y a une vidéo faisant la promotion d'un régime de soins dentaires avec une version IA de moi. Je n'ai rien à voir avec ça."

Hanks a partagé une image qui, selon le New York Times(https://www.nytimes.com/2023/10/02/technology/tom-hanks-ai-dental-video.html), serait une capture d'écran apparente de la publicité, bien qu'il ait refusé de répondre aux questions du journal sur la société qui a diffusé la publicité ou s'il envisageait une action en justice. Le Times a rapporté être incapable de trouver l'annonce en ligne.

Hanks n'est pas la seule célébrité à se plaindre de l'utilisation d'images falsifiées d'elle-même dans des publicités. L'animatrice de CBS Mornings, Gayle King, a publié un post similaire sur Instagram lundi.

"Les gens continuent de m'envoyer cette vidéo et de me poser des questions sur ce produit et je n'ai RIEN à voir avec cette entreprise", a écrit King. "J'ai posté cette vidéo faisant la promotion de mon émission de radio le 31 août (faites glisser pour voir l'original), et ils ont manipulé ma voix et ma vidéo pour donner l'impression que j'en fais la promotion... Je n'ai jamais entendu parler de ce produit. ou je l'ai utilisé ! S'il vous plaît, ne vous laissez pas berner par ces vidéos d'IA. "

Les images truquées des stars ne semblent cependant pas contribuer à rendre célèbres des marques inconnues. La vidéo de King est associée à un nom apparent d'entreprise, Artipet. Mais le Times rapporte que, comme pour la vidéo de Hanks, les journalistes n'ont pas pu déterminer quel produit était promu ni quelle entreprise était impliquée.

Les fans de King semblaient reconnaissants que l'animateur ait souligné les images.

"J'ai su que c'était un faux dès que je l'ai vu hier", a écrit un commentateur sur Instagram. "Tellement frustrant ! Les gens tombent tout le temps dans le piège de ces arnaques. Ugh ! Merci de l'avoir signalé à tout le monde !"

Les messages de Hanks et de King semblent faire référence à "deepfakes, " des images ou des vidéos qui utilisent l'intelligence artificielle pour donner l'impression qu'une personne fait ou dit des choses qu'elle ne fait pas réellement. Comme l'a noté CNET dans cet article, la technologie est entrée dans le courant dominant en 2019 et depuis a évolué et s'est amélioré.

L'Union européenne a renforcé ses règles sur la manière dont les entreprises technologiques doivent gérer les deepfakes avec un [Code de bonnes pratiques sur la désinformation] révisé(https://www.cnet.com/news/politics/eu-strengthens-disinformation-rules-to- target-deepfakes-bots-fake-accounts/), et en mars, l'application de partage de vidéos [TikTok requis](https://www.cnet.com/news/social-media/tiktok-bans-some-deepfakes-amid -préoccupations de sécurité/) que les médias synthétiques ou manipulés représentant des scènes réalistes doivent être clairement étiquetés comme faux. Les changements apportés par TikTok continuent d'autoriser les médias synthétiques mettant en vedette des personnalités publiques dans certaines circonstances, bien que les abus, la désinformation politique et les mentions commerciales y soient désormais interdits.

Pour éviter de vous tromper, il y a des choses pratiques que vous pouvez faire lorsque vous essayez de déterminer si quelque chose est généré par l’IA. Recherchez les phrases étranges et les mouvements du visage, recherchez si la source est fiable et recherchez le contenu sur Google pour voir si d'autres remettent en question sa validité.

Note de l'éditeur : CNET utilise un moteur d'IA pour aider à créer certaines histoires. Pour en savoir plus, consultez cet article.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd