Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2761

Loading...
Les dangers de Deepfake à venir
wsj.com · 2023

Bots, trolls, campagnes d'influence : chaque jour, nous semblons lutter contre plus de contenus faux ou manipulés en ligne. En raison des avancées en matière de puissance de calcul, d'algorithmes d'apprentissage automatique plus intelligents et d'ensembles de données plus volumineux, nous partagerons bientôt l'espace numérique avec une gamme sinistre d'articles de presse et de podcasts générés par l'IA, d'images et de vidéos deepfake, le tout produit à une échelle et à une vitesse autrefois impensables. En 2018, selon une étude, moins de 10 000 deepfakes avaient été détectés en ligne. Aujourd'hui, le nombre de deepfakes en ligne se compte presque certainement en millions.

On peut difficilement imaginer toutes les finalités que les gens trouveront à ce nouveau média synthétique, mais ce que nous avons déjà vu est préoccupant. Les étudiants peuvent demander à ChatGPT de rédiger leurs essais. Les harceleurs peuvent créer des vidéos pornographiques contenant des images des personnes qui les obsèdent. Un criminel peut synthétiser la voix de votre patron et vous dire de transférer de l'argent.

Les deepfakes risquent d'amener les gens à considérer toutes les informations comme suspectes.

Les deepfakes présentent non seulement des risques criminels, mais aussi des menaces pour la sécurité nationale. Pour attiser les divisions aux États-Unis en 2020, la Russie a utilisé des moyens de propagande conventionnels, déployant de fausses informations sur la vaccination et des images réelles mais sélectives de destruction lors des manifestations de Black Lives Matter. La technologie Deepfake portera ces efforts à un nouveau niveau, permettant la création d'une réalité alternative convaincante. En 2022, par exemple, la Russie a publié un deepfake grossier du président ukrainien Volodymyr Zelensky appelant les Ukrainiens à déposer les armes.

Imaginez ce qui pourrait être fait à mesure que la technologie devient plus sophistiquée. Les djihadistes cherchant à mobiliser des recrues pourraient montrer des clips convaincants du président français Emmanuel Macron dénigrant l'islam. Une invasion chinoise de Taïwan pourrait commencer par un deepfake d'un commandant naval taïwanais disant aux forces sous son commandement de permettre aux forces chinoises de passer sans encombre. Les troupes qui mènent une guerre peuvent désespérer après avoir lu des milliers de publications Facebook provoquant la division ou provocantes, ostensiblement par camarades soldats mais en fait généré par ChatGPT. L'ampleur, la rapidité et la vraisemblance d'une telle guerre de l'information menacent de submerger la capacité des militaires et des services de renseignement à s'en prémunir.

Même les faux détecteurs les plus ingénieux auront leurs limites, car les percées en matière de détection seront presque certainement utilisées pour améliorer la prochaine génération d'algorithmes deepfake.

Au niveau national, les deepfakes risquent d'amener les gens à considérer toutes les informations comme suspectes. Les soldats peuvent ne pas faire confiance aux ordres réels, et le public peut penser que les véritables scandales et outrages ne sont pas réels. Un climat de suspicion omniprésente permettra aux politiciens et à leurs partisans de rejeter tout ce qui est négatif rapporté à leur sujet comme faux ou exagéré.

La puissante administration chinoise du cyberespace a déjà anticipé de telles préoccupations. En janvier, Pékin a commencé à appliquer de nouvelles réglementations ambitieuses sur le contenu deepfake, allant de règles strictes exigeant que les images synthétiques de personnes ne soient utilisées qu'avec le consentement de ces personnes à des interdictions plus orwelliennes de "diffusion de fausses nouvelles".

Les sociétés démocratiques doivent également commencer à s'attaquer aux dommages potentiels des deepfakes, mais nous ne pouvons pas le faire de la même manière que la Chine. Nous avons besoin d'une réponse qui préserve la libre circulation des idées et de l'expression, l'échange d'informations qui permette aux citoyens de déterminer ce qui est faux et ce qui est réel. La désinformation est dangereuse précisément parce qu'elle porte atteinte à la notion même de vérité. Des interdictions comme celle de Pékin jouent dans ce problème en faisant du discernement de la vérité et de la fausseté une prérogative gouvernementale, sensible à la politique et à l'application brutale.

Les options pour les démocraties sont compliquées et devront mélanger les approches techniques, réglementaires et sociales. Intel a déjà commencé à travailler sur le plan technique. En novembre dernier, les chercheurs de la société ont proposé un système appelé FakeCatcher qui revendiquait une précision de 96 % dans l'identification des deepfakes. Ce nombre est impressionnant, mais étant donné le volume considérable de matériaux synthétiques qui peuvent être produits, même un détecteur précis à 99 % passerait à côté d'un volume inacceptable de désinformation. De plus, les gouvernements auront les services de programmeurs hautement qualifiés, ce qui signifie que leurs deepfakes seront probablement parmi les moins détectables. Même les détecteurs les plus ingénieux auront leurs limites, car les percées en matière de détection seront presque certainement utilisées pour améliorer la prochaine génération d'algorithmes deepfake.

Il existe une solution de contournement qui peut aider les détecteurs à garder une longueur d'avance sur ce cycle, et elle est liée à une technique que les entreprises de médias sociaux explorent déjà. Les développeurs de technologie de détection peuvent se concentrer moins sur la vidéo ou l'image elle-même que sur la façon dont elle est utilisée en créant des algorithmes qui analysent les métadonnées et le contexte. Les plates-formes de médias sociaux déploient actuellement ce type d'outils pour détecter les faux comptes utilisés pour ce que certaines plates-formes appellent des "campagnes coordonnées de comportement inauthentique" - un terme qui couvre les efforts de l'Iran, de la Russie et d'autres acteurs malveillants pour semer la désinformation ou discréditer des personnalités publiques spécifiques. Un tel algorithme pour les deepfakes serait capable de distinguer une peinture deepfake à la Renoir d'un être cher, par exemple, d'un deepfake montrant une célébrité nue ou une personnalité politique droguée.

Le gouvernement américain et les autres démocraties ne peuvent pas dire à leur peuple ce qui est vrai ou non, mais ils peuvent insister pour que les entreprises qui produisent et distribuent des médias synthétiques à grande échelle rendent leurs algorithmes plus transparents. Le public doit savoir quelles sont les politiques d'une plateforme et comment ces règles sont appliquées. Les plateformes qui diffusent des deepfakes peuvent même être tenues de permettre à des chercheurs tiers indépendants d'étudier les effets de ces médias et de vérifier si les algorithmes des plateformes se comportent conformément à leurs politiques.

Les deepfakes vont changer la façon dont de nombreuses institutions dans les démocraties font des affaires. L'armée aura besoin de systèmes très sécurisés pour vérifier les commandes et s'assurer que les systèmes automatisés ne peuvent pas être déclenchés par d'éventuels deepfakes. Les dirigeants politiques qui répondent aux crises devront prévoir des délais pour s'assurer que les informations dont ils disposent ne sont pas fausses ou même partiellement manipulées par un adversaire. Les journalistes et les rédacteurs en chef devront se méfier des reportages choquants, doublant la norme de vérification des faits avec plusieurs sources. En cas de doute, un point de vente peut marquer certaines nouvelles avec des avertissements lumineux "cette information non vérifiée".

En fin de compte, c'est le public qui devra distinguer les sources d'information opérant de bonne foi de celles conçues pour être manipulées. De nombreuses démocraties ont du mal à maîtriser les médias, mais la Finlande offre un exemple prometteur. Là-bas, l'éducation aux médias est intégrée au programme scolaire dès le préscolaire, et les bibliothèques sont devenues des centres d'enseignement de l'éducation aux médias pour adultes. La Finlande se classe désormais au premier rang mondial pour sa résilience face à la désinformation.

Il est dans la nature de la démocratie qu'aucune politique ne puisse à elle seule endiguer efficacement la prolifération de la désinformation. Pour faire face au problème, les sociétés libres auront besoin d'une combinaison d'efforts et, contrairement à l'approche du ministère chinois de la Vérité, devraient donner la priorité à la préservation d'un discours ouvert et au respect du discernement des citoyens. La clé est de commencer ce processus avant que les deepfakes ne s'infiltrent dans nos écosystèmes d'information et ne les submergent. Une fois qu'ils le feront, la méfiance et la confusion seront beaucoup plus difficiles à contenir.

—Messieurs. Byman, Meserole et Subrahmanian sont co-auteurs (avec Chongyang Gao) d'un nouveau rapport de recherche de la Brookings Institution, "Deepfakes and International Conflict", dont cet essai est adapté.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd