Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4844

Incidents associés

Incident 9654 Rapports
Phishers Allegedly Using AI-Generated Video of YouTube CEO Neal Mohan to Target Creators

Loading...
YouTube met en garde les créateurs contre une vidéo de son PDG générée par l'IA
petapixel.com · 2025

YouTube a mis en garde les créateurs contre une vidéo du PDG de l'entreprise générée par l'IA qui est utilisée dans des escroqueries par phishing.

Dans un message officiel publié mardi, YouTube a publié un avertissement aux utilisateurs concernant une vidéo générée par l'IA de son PDG Neal Mohan, annonçant de faux changements dans la politique de paiement de la plateforme dans le cadre d'une escroquerie par phishing.

La vidéo deepfake a été partagée en privé avec les utilisateurs. Elle affirme que YouTube modifie sa politique de monétisation dans le but de voler leurs identifiants, selon The Verge.

Une capture d'écran de la vidéo générée par l'IA de Mohan a été réalisée par un utilisateur de Reddit (voir ci-dessous). Les créateurs reçoivent un e-mail provenant apparemment de « no-reply@youtube.com » accompagné d'une vidéo d'une version truquée de Mohan concernant les changements de la politique de monétisation.

« Cet e-mail circule. Vous serez piraté si vous téléchargez le fichier qu'ils vous demandent de télécharger dans la description de la vidéo YouTube », déclare l'utilisateur de Reddit.

Dans un message, YouTube a également mis en garde les créateurs contre la vidéo de Mohan générée par l'IA. La société a exhorté les utilisateurs à ne pas tomber dans le piège des escroqueries par phishing et à éviter de cliquer sur les liens envoyés via des fichiers non fiables. YouTube affirme qu'il ne tentera jamais de contacter les utilisateurs ou de partager des informations via une vidéo privée.

« Nous sommes conscients que des hameçonneurs partagent des vidéos privées pour envoyer de fausses vidéos, notamment une vidéo générée par l'IA du PDG de YouTube, Neal Mohan, annonçant des changements dans la monétisation », écrit Rob de Team YouTube dans le message.

« YouTube et ses employés ne tenteront jamais de vous contacter ou de partager des informations via une vidéo privée. Si une vidéo est partagée en privé avec vous en prétendant provenir de YouTube, la vidéo est une arnaque par hameçonnage. »

Dans le message, YouTube indique que l'arnaque par hameçonnage peut entraîner la perte des identifiants du créateur et l'installation de logiciels malveillants sur son appareil.

« De nombreux hameçonneurs ciblent activement les créateurs en essayant de trouver des moyens d'usurper l'identité de YouTube en exploitant les fonctionnalités de la plateforme pour créer des liens vers du contenu malveillant », écrit Rob.

« Soyez toujours vigilant et assurez-vous de ne pas ouvrir de liens ou de fichiers non fiables ! »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd