Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6860

Incidents associés

Incident 13711 Rapport
Purported Deepfake Reportedly Impersonated Consumer Adviser Clark Howard to Promote Auto-Insurance Quote Site

Loading...
Une image truquée par intelligence artificielle semble montrer Clark Howard en train de vendre des assurances.
wsbtv.com · 2026

ATLANTA — Des deepfakes créés par intelligence artificielle circulent sur les réseaux sociaux dans le but de vendre des produits.

Dans la vidéo, Howard semble vendre une assurance.

« Zéro frais, aucune mauvaise surprise. Il vous suffit de répondre à quelques questions sur votre voiture, et l'outil calcule votre tarif réel », explique la vidéo.

« C'est vraiment perturbant de voir ça et de penser que les gens me prennent pour quelqu'un d'autre », a déclaré le vrai Howard.

Dans la publication, l'imitation de Howard recommande un outil pour trouver une assurance auto moins chère.

Dianne Milton, une habitante de Kennesaw, a réagi dans les commentaires pour mettre en garde les internautes : ne perdez pas votre temps avec cette arnaque, car vous avez déjà visité un site web similaire.

« J'ai immédiatement reçu des appels de tout le monde, et personne ne proposait une meilleure offre », a-t-elle déclaré.

Mais Milton a précisé que jusqu'à ce que Gray la contacte, elle pensait que c'était le vrai Clark Howard qui donnait de mauvais conseils.

Le vrai Howard affirme qu'il est difficile de distinguer le vrai du faux.

« Dès qu'on nous propose quelque chose, il faut qu'on sache que ce n'est peut-être pas authentique. C'est tellement facile de créer des faux », a-t-il déclaré.

En novembre, Channel 2 Action News a diffusé des deepfakes générés par IA du sénateur Jon Ossoff dans une publicité publiée par l'équipe de campagne de son rival républicain au Sénat, Mike Collins.

« On pourrait se faire avoir et croire m'entendre dire : "C'est génial !" », a déclaré le vrai Howard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd