Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3577

Incidents associés

Incident 62630 Rapports
Social Media Scammers Used Deepfakes of Taylor Swift and Several Other Celebrities in Fraudulent Le Creuset Cookware Giveaways

Loading...
Non, Taylor Swift ne donne pas d'ustensiles de cuisine Le Creuset – c'est une arnaque
today.com · 2024

Espérons que les utilisateurs des réseaux sociaux qui ont vu Taylor Swift promouvoir des ustensiles de cuisine gratuits sur des plateformes comme Facebook savaient que les publicités posaient problème avant de cliquer.

De fausses publicités pour la marque d'ustensiles de cuisine Le Creuset, semblant arborer le sceau d'approbation de Swift, sont apparues sur Facebook et d'autres plateformes sociales ces dernières semaines. Les publicités utilisent des extraits éparpillés de la chanteuse avec une version synthétisée de sa voix et des images des fours hollandais Le Creuset.

"Hé à tous, c'est Taylor Swift ici", commence une fausse publicité mettant en vedette la voix augmentée de Swift. "En raison d'une erreur d'emballage, nous ne pouvons pas vendre 3 000 batteries de cuisine Le Creuset. Je les offre donc gratuitement à mes fidèles fans."

L'annonce demande ensuite aux utilisateurs de cliquer sur un bouton et de répondre à des questions afin de recevoir les ustensiles de cuisine gratuits de la marque.

La section commentaires de la publication Facebook mettant en vedette la voix de Swift a mis en évidence les différentes méthodes utilisées par les créateurs de la fausse publicité pour légitimer le « cadeau ».

"Obtenir dans 10 jours ! Longue attente mais quand même l'ensemble est super ! Merci les gars !!" a commenté un compte.

Mais d’autres utilisateurs n’ont pas tardé à intervenir et à dénoncer la publicité comme étant fausse, tout en partageant leur expérience du fait d’être tombés dans le piège de la publicité.

"J'ai payé les frais de port, bêtement, et je n'ai jamais reçu la batterie de cuisine", a commenté un utilisateur. "Honte à moi d'être tombé dans le panneau. Ne le fais pas !"

Les représentants de Swift n'ont pas immédiatement répondu à une demande de commentaires, tandis qu'un porte-parole de Meta a déclaré à TODAY.com que l'annonce avait été supprimée.

"Le Creuset n'est impliqué avec Taylor Swift pour aucun cadeau destiné aux consommateurs", a déclaré un porte-parole de Le Creuset [a déclaré à NBC News](https://www.nbcnews.com/tech/taylor-swift-ai-generated-le-creuset- ad-pas-réel-rcna133285). "Tous les cadeaux ou promotions approuvés par Le Creuset proviennent des comptes sociaux officiels de Le Creuset. Les consommateurs doivent toujours consulter les comptes sociaux officiels et le site Web de Le Creuset avant de cliquer sur des publicités suspectes."

Le Dr David S. Touretzky, professeur-chercheur au département d'informatique et au Carnegie Mellon Neuroscience Institute de l'université Carnegie Mellon, a déclaré à TODAY.com que l'arnaque de Le Creuset n'avait fait que falsifier la voix de Taylor Swift.

"Les images utilisées étaient réelles", explique-t-il. "Faire des images est possible mais demande beaucoup plus de travail."

La fausse publicité du Creuset est loin d'être la première à utiliser l'intelligence artificielle pour simuler le visage ou la voix d'une célébrité à des fins d'escroquerie.

Annonces frauduleuses similaires sur Facebook montre Oprah Winfrey faisant également la promotion du cadeau d'ustensiles de cuisine. En novembre 2023, Scarlett Johansson et son équipe juridique s'en sont pris à Lisa AI, un générateur d'art et d'avatar IA. maker, pour avoir utilisé son image pour des publicités en ligne.

Aussi troublantes que puissent être ces campagnes, Touretzky souligne qu’avant l’arrivée des deepfakes, les gens engageaient des imitateurs de voix pour réaliser des escroqueries similaires.

"Mais trouver des gens capables à la fois de faire cela et prêts à faciliter un crime pourrait être difficile. Utiliser des ordinateurs est plus facile parce qu'ils n'ont aucune morale et ne vous dénonceront pas aux autorités", poursuit-il.

Comment les modèles deepfake sont-ils formés ?

Touretzky explique que pour simuler la voix d'une personne, il faut collecter des échantillons de son discours. Avec Taylor Swift ayant été partout cette année, les mauvais acteurs avaient certainement beaucoup de contenu à exploiter .

"Vous utilisez ces données comme données de formation pour un algorithme d'apprentissage automatique qui construit un modèle de leurs modèles de parole : leur prononciation, leur intonation, leur timbre de voix, leur rythme de parole", explique-t-il. "En utilisant ce modèle, vous pouvez prendre le discours de quelqu'un d'autre et le transformer pour qu'il ressemble à la personne que vous essayez d'imiter."

Comment pouvons-nous nous protéger contre les deepfakes ?

Touretzky note qu’il n’est pas possible de revenir en arrière sur la technologie des deepfakes.

"La technologie ne retourne pas dans la bouteille", dit-il. "Au contraire, à mesure que les ordinateurs deviennent plus puissants, cela deviendra encore plus répandu. Peut-être que dans un an ou deux, vous pourrez obtenir une application pour votre téléphone qui vous permettra de parler comme Morgan Freeman ou Dame Judi Dench.

"La détection des personnes qui abusent de la technologie devra s'appuyer sur une meilleure capacité à retracer où va l'argent", dit-il.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd