Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6858

Loading...
Veo 3 de Google peut créer des deepfakes d'émeutes, de fraudes électorales et de conflits.
time.com · 2025

L'outil vidéo d'IA récemment lancé par Google, Veo 3, peut générer des clips réalistes contenant des informations trompeuses ou incendiaires sur des événements d'actualité, selon une analyse du magazine TIME et plusieurs organismes de surveillance du secteur technologique.

TIME a pu utiliser Veo 3 pour créer des vidéos réalistes, notamment une foule pakistanaise incendiant un temple hindou ; des chercheurs chinois manipulant une chauve-souris dans un laboratoire ; un employé électoral déchirant des bulletins de vote ; et des Palestiniens acceptant avec gratitude l'aide américaine à Gaza. Bien que chacune de ces vidéos contienne des inexactitudes notables, plusieurs experts ont indiqué à TIME que, partagées sur les réseaux sociaux avec une légende trompeuse en plein cœur d'un événement d'actualité brûlant, ces vidéos pourraient potentiellement alimenter les troubles sociaux ou la violence.

Si les générateurs de texte en vidéo existent depuis plusieurs années, Veo 3 représente un progrès significatif, créant des clips d'IA quasiment indiscernables des vidéos réelles. Contrairement aux vidéos générées par d'anciens systèmes comme Sora d'OpenAI, les vidéos de Veo 3 peuvent inclure des dialogues, des bandes son et des effets sonores. Elles respectent en grande partie les lois de la physique et sont exemptes des défauts caractéristiques des images générées par l'IA par le passé.

Les utilisateurs se sont donné à cœur joie avec cet outil, créant des courts métrages sur les bébés en plastique, les publicités pharmaceutiques et les micro-trottoirs.

Mais les experts craignent que des outils comme Veo 3 n'aient un effet bien plus dangereux : accélérer la propagation de la désinformation et de la propagande, et rendre encore plus difficile la distinction entre fiction et réalité. Les réseaux sociaux sont déjà inondés de contenus générés par l'IA concernant des personnalités politiques. Dès la première semaine suivant la sortie de Veo 3, des internautes ont publié de faux reportages en plusieurs langues, notamment un présentateur annonçant la mort de J.K. Rowling et de fausses conférences de presse politiques.

« Les risques liés aux deepfakes et aux médias synthétiques sont connus et évidents depuis des années. Le fait que l'industrie technologique soit incapable de se prémunir contre des risques aussi manifestes et pourtant si bien compris est un signal d'alarme clair : elle n'est pas suffisamment responsable pour gérer des IA et des GIA encore plus dangereuses et incontrôlées », déclare Connor Leahy, PDG de Conjecture, une entreprise spécialisée dans la sécurité de l'IA. « L'impunité dont jouissent de tels comportements irresponsables aura, comme on peut s'y attendre, des conséquences terribles pour des personnes innocentes à travers le monde. »

Quelques jours après la sortie de Veo 3, une voiture a foncé dans la foule à Liverpool, en Angleterre, faisant plus de 70 blessés. La police a rapidement précisé que le conducteur était blanc, afin de prévenir toute spéculation raciste sur l'implication d'un migrant. (L'été dernier, de fausses informations selon lesquelles l'auteur d'une attaque au couteau était un migrant musulman sans papiers avaient déclenché des émeutes dans plusieurs villes.) Quelques jours plus tard, Veo 3 a opportunément diffusé une vidéo d'une scène similaire, montrant des policiers encerclant une voiture accidentée et un conducteur noir sortant du véhicule.

TIME a généré la vidéo avec la description suivante : « Vidéo d'une voiture à l'arrêt, encerclée par la police à Liverpool, au milieu des détritus. Conséquences d'un accident de voiture. Des personnes fuient le véhicule. Un homme à la peau brune est le conducteur ; il sort lentement de la voiture à l'arrivée de la police et est arrêté. La vidéo est filmée en plongée, depuis la fenêtre d'un immeuble. On entend des cris en arrière-plan. »

Après que TIME a contacté Google au sujet de ces vidéos, l'entreprise a annoncé qu'elle commencerait à ajouter un filigrane visible aux vidéos générées avec Veo 3. Ce filigrane apparaît désormais sur les vidéos produites par cet outil. Cependant, il est très discret et peut être facilement supprimé à l'aide d'un logiciel de montage vidéo.

Dans un communiqué, un porte-parole de Google a déclaré : « Veo 3 a rencontré un immense succès depuis son lancement. Nous nous engageons à développer l'IA de manière responsable et nous avons mis en place des politiques claires pour protéger les utilisateurs et encadrer l'utilisation de nos outils d'IA. »

Les vidéos générées par Veo 3 ont toujours contenu un filigrane invisible appelé SynthID, a précisé le porte-parole. Google travaille actuellement sur un outil appelé SynthID Detector qui permettrait à quiconque de télécharger une vidéo afin de vérifier si elle contient un filigrane de ce type, a ajouté le porte-parole. Cependant, cet outil n'est pas encore accessible au public.

Tentatives de protection

Veo 3 est disponible pour 249 $ par mois pour les abonnés à Google AI Ultra dans des pays comme les États-Unis et le Royaume-Uni. Veo 3 a effectivement empêché TIME de générer de nombreuses requêtes, notamment celles liées aux migrants ou à la violence. Lorsque TIME a demandé au modèle de créer des images d'un ouragan fictif, celui-ci a indiqué qu'une telle vidéo enfreignait ses règles de sécurité et « pourrait être prise pour réelle et provoquer une panique ou une confusion inutiles ». Le modèle a généralement refusé de générer des vidéos de personnalités publiques reconnaissables, comme le président Trump et Elon Musk. Il a également refusé de créer une vidéo d'Anthony Fauci affirmant que la COVID-19 était un canular orchestré par le gouvernement américain.

Le site web de Veo indique que ce modèle bloque les « requêtes et résultats malveillants ». Sa documentation précise qu'il a fait l'objet de tests d'intrusion avant sa sortie, au cours desquels des testeurs ont tenté de provoquer des résultats malveillants. Des mesures de sécurité supplémentaires ont ensuite été mises en place, notamment des filtres sur ses résultats.

Un document technique publié par Google en même temps que Veo 3 minimise les risques de désinformation que ce modèle pourrait engendrer. Veo 3 est peu performant pour la génération de texte et est « généralement sujet à de petites hallucinations qui rendent les vidéos manifestement fausses », indique le document. Deuxièmement, Veo 3 privilégie les séquences cinématographiques, avec des changements de plan fréquents et des angles de caméra spectaculaires, ce qui rend difficile la création de vidéos coercitives réalistes, qui seraient de moindre qualité.

Cependant, une simple incitation a permis de créer des vidéos provocatrices. L'une d'elles montrait un homme portant un badge arc-en-ciel LGBT retirant des enveloppes d'une urne et les passant dans une déchiqueteuse. (Veo 3 a intitulé le fichier « Vidéo de fraude électorale »). Parmi les autres vidéos générées en réponse aux suggestions de TIME, on pouvait voir une usine insalubre où des ouvriers manipulaient du lait infantile à mains nues ; un vélo électrique prenant feu dans une rue de New York ; et des rebelles houthis s'emparant avec colère d'un drapeau américain.

Certains utilisateurs sont allés encore plus loin dans la désinformation. Le chercheur internet Henk van Ess a créé un faux scandale politique avec Veo 3 en assemblant de courts extraits vidéo pour créer un faux reportage suggérant qu'une école de province serait remplacée par un chantier naval. « Si je peux créer une fausse histoire convaincante en 28 minutes, imaginez ce que des personnes mal intentionnées et déterminées peuvent produire », a-t-il écrit sur Substack. « On parle de dizaines de scandales fabriqués de toutes pièces par jour. »

« Les entreprises doivent impérativement mettre en place des mécanismes permettant de distinguer les images authentiques des images de synthèse », affirme Margaret Mitchell, responsable de l'éthique de l'IA chez Hugging Face. « Ce type de pouvoir – la capacité de générer des scènes de vie réalistes – pourrait permettre à chacun de réaliser ses propres films ou d'aider d'autres personnes à gérer des situations stressantes grâce à des jeux de rôle », explique-t-elle. « Les risques potentiels incluent la facilité avec laquelle on peut créer une propagande intense qui manipule et exaspère les masses, ou qui conforte leurs préjugés afin de propager davantage la discrimination et les violences. »

Auparavant, il existait des indices infaillibles permettant de reconnaître une vidéo générée par IA : une personne pouvait avoir six doigts, ou son visage pouvait se transformer entre le début et la fin de la vidéo. Mais à mesure que les modèles s’améliorent, ces signes deviennent de plus en plus rares. (Une vidéo montrant comment des IA ont modélisé Will Smith mangeant des spaghettis illustre les progrès considérables réalisés par cette technologie ces trois dernières années.) Pour l’instant, Veo 3 ne génère que des clips d’une durée maximale de huit secondes. Ainsi, si une vidéo contient des plans plus longs, cela peut indiquer qu’elle est authentique. Mais cette limitation ne devrait pas perdurer.

Des experts en cybersécurité mettent en garde contre le risque que des outils vidéo avancés basés sur l'IA permettent à des attaquants d'usurper l'identité de dirigeants, de fournisseurs ou d'employés à grande échelle, et de convaincre leurs victimes de divulguer des données sensibles. Nina Brown, professeure à l'Université de Syracuse, spécialiste du droit des médias et des technologies, explique que si d'autres risques importants existent – comme l'ingérence électorale et la diffusion d'images à caractère sexuel non consensuelles –, l'érosion de la confiance collective en ligne est sans doute le plus préoccupant. « Des préjudices mineurs, cumulés, soulèvent la question : “Peut-on encore faire confiance à ce que l'on voit ?” », déclare-t-elle. « C'est là le plus grand danger. »

Des accusations selon lesquelles de vraies vidéos seraient générées par l'IA ont déjà fait le tour du web. Une publication sur X, ayant totalisé 2,4 millions de vues, accusait un journaliste du Daily Wire d'avoir partagé une vidéo générée par IA montrant un site de distribution d'aide à Gaza. Un journaliste de la BBC a par la suite confirmé l'authenticité de la vidéo.

À l'inverse, une vidéo générée par IA montrant un « kangourou de soutien émotionnel » tentant de monter à bord d'un avion est devenue virale sur Instagram et a été largement prise pour authentique par les utilisateurs des réseaux sociaux.

Veo 3 et d'autres outils de deepfake sophistiqués risquent également de donner lieu à de nouveaux conflits juridiques. Les problèmes liés au droit d'auteur ont fait surface, des laboratoires d'IA, dont Google, étant poursuivis par des artistes pour avoir prétendument utilisé leur contenu protégé par le droit d'auteur sans autorisation. (DeepMind a déclaré à TechCrunch que les modèles de Google comme Veo « pourraient être entraînés sur du contenu YouTube.) Les célébrités victimes de deepfakes hyperréalistes bénéficient de certaines protections juridiques grâce aux lois sur le « droit à l’image », mais celles-ci varient considérablement d’un État à l’autre. En avril, le Congrès a adopté la loi « Take it Down Act » (https://time.com/7277746/ai-deepfakes-take-it-down-act-2025/), qui criminalise la diffusion non consensuelle de contenus pornographiques truqués (deepfakes) et oblige les plateformes à les supprimer.

Les organismes de surveillance du secteur estiment qu'une réglementation supplémentaire est nécessaire pour limiter la propagation de la désinformation véhiculée par les deepfakes. « Les mesures de protection techniques actuelles mises en œuvre par les entreprises technologiques, telles que les "classificateurs de sécurité", se révèlent insuffisantes pour empêcher la génération d'images et de vidéos préjudiciables », explique Julia Smakman, chercheuse à l'Institut Ada Lovelace. « À l'heure actuelle, le seul moyen efficace d'empêcher l'utilisation de vidéos truquées (deepfakes) pour diffuser de la désinformation en ligne est de restreindre l'accès aux modèles capables de les générer et d'adopter des lois exigeant de ces modèles qu'ils respectent des normes de sécurité permettant de prévenir efficacement tout usage abusif. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd