Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3395

Incidents associés

Incident 60615 Rapports
Deepfaked Advertisements Using the Likenesses of Celebrities Such as Tom Hanks and Gayle King Without Their Consent

Les célébrités mettent en garde contre les vidéos Deepfake alimentées par l'IA d'elles faisant la publicité de produits sur les réseaux sociaux
mymodernmet.com · 2023

L'IA est partout. De nombreux artistes utilisent des outils basés sur l'IA pour créer des œuvres époustouflantes ou améliorer certains concepts intéressants. Malheureusement, ces ressources ont également eu des utilisations douteuses, notamment la création de deepfakes. Ces vidéos modifiées montrent des gens faisant ou disant quelque chose qu'ils n'ont pas réellement fait. Ce sont des clips générés par ordinateur qui semblent entièrement réels grâce à la réutilisation de séquences existantes. Et même si les célébrités semblent être la cible la plus courante, l’IA suscite des préoccupations croissantes dont tous ceux qui consomment des médias numériques devraient être conscients.

Deux des dernières personnalités à avoir affaire à une version non autorisée d'eux-mêmes générée par l'IA sont l'acteur Tom Hanks et la journaliste Gayle King. Hanks a d'abord publié un avertissement sur Instagram, faisant savoir à ses abonnés qu'il y avait une arnaque IA qui mettait en scène son visage. "MÉFIEZ-VOUS!! Il existe une vidéo faisant la promotion d’un régime de soins dentaires avec une version IA de moi. Je n'ai rien à voir avec ça", a écrit l'acteur sur une capture d'écran de la vidéo.

King a également alerté ses abonnés Instagram à propos d'une vidéo générée par l'IA la montrant faisant la publicité d'un produit de perte de poids. « Je n’ai jamais entendu parler de ce produit ni utilisé ! S’il vous plaît, ne vous laissez pas berner par ces vidéos d’IA », a-t-elle écrit. King a également partagé le clip original sur lequel la version modifiée était basée. "J'ai posté cette vidéo faisant la promotion de mon émission de radio le 31 août, et ils ont manipulé ma voix et ma vidéo pour donner l'impression que j'en fais la promotion."

Même si cette utilisation abusive des outils d’IA semble provenir d’entreprises frauduleuses, des inquiétudes ont également été exprimées quant à son application dans des entreprises plus établies. L'un des griefs soulevés par le SAG-AFTRA, le syndicat représentant les acteurs hollywoodiens, pendant sa grève actuelle concerne la façon dont l'IA pourrait être utilisée par les studios pour créer des répliques numériques d'acteurs sans compensation ni approbation appropriée. Lorsqu'une collaboration générée par l'IA entre Drake et The Weekend a frappé les services de streaming [plus tôt cette année](https://www.nytimes.com/2023/04/19/arts/music/ai-drake-the-weeknd-fake. html), les labels de musique ont exprimé leurs inquiétudes quant à la façon dont cet élément apparemment inoffensif pourrait devenir une préoccupation majeure pour les artistes dans une industrie musicale fragile.

Pour garder à distance les contenus nuisibles générés par l’IA, un effort concerté entre toutes les parties serait nécessaire : les fournisseurs de ces outils pourraient proposer des moyens de suivre l’origine du contenu, tandis que les plateformes de médias sociaux pourraient également corriger leurs algorithmes pour en dissuader la portée. comme agir rapidement face à un contenu signalé par les utilisateurs. Si cela s’avérait nécessaire, même le droit international pourrait s’impliquer et fixer certains paramètres concernant l’utilisation de ces outils.

Les outils et créations d’IA semblent être là pour rester, et même si un cadre de règles fixées par les principaux acteurs constituerait un grand pas en avant vers la protection du public, des plateformes qui les contourneraient pourraient toujours apparaître. L’époque où une vidéo ou une image faisait office de preuve ou autre pourrait être révolue depuis longtemps, érodant la confiance du public et modifiant le paysage numérique tel que nous le connaissons.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5