Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2895

Loading...
Les théories du complot ont un nouveau meilleur ami
theatlantic.com · 2023

L'histoire a longtemps été un théâtre de guerre, le passé servant de mandataire dans les conflits autour du présent. Ron DeSantis est [warping history] (https://www.theatlantic.com/ideas/archive/2023/02/desantis-florida-college-diversity-inclusion-ban-education-curriculum-political-agendas/672919/) par l'interdiction des livres sur le racisme dans les écoles de Floride ; les gens restent divisés sur la bonne approche pour rapatrier les objets et restes autochtones ; les Pentagon Papers étaient une tentative de déformer les récits sur la guerre du Vietnam. Les nazis ont pris le pouvoir en partie en manipulant le passé - ils ont utilisé la propagande sur l'incendie du Reichstag, le bâtiment du parlement allemand, pour justifier la persécution des rivaux politiques et l'exercice de l'autorité dictatoriale. Cet exemple spécifique pèse sur Eric Horvitz, directeur scientifique de Microsoft et chercheur de premier plan en IA, qui me dit que la révolution apparente de l'IA pourrait non seulement fournir une nouvelle arme aux propagandistes, comme les médias sociaux l'ont fait au début de ce siècle, mais remodeler entièrement le terrain historiographique , jetant peut-être les bases d'un incendie du Reichstag moderne.

Les avancées en question, y compris les modèles de langage tels que ChatGPT et les générateurs d'images tels que DALL-E 2, relèvent vaguement de l'"IA générative". Ce sont des programmes puissants et faciles à utiliser qui produisent du texte synthétique, des images, de la vidéo et de l'audio, qui peuvent tous être utilisés par de mauvais acteurs pour [fabriquer des événements, des personnes, des discours et des reportages](https://www .theatlantic.com/technology/archive/2022/12/deepfake-synthetic-media-technology-rise-disinformation/672519/) pour semer la désinformation. Vous avez peut-être déjà vu des exemples ponctuels de ce type de médias : de fausses vidéos du président ukrainien Volodymyr Zelensky se rendant à la Russie ; [images simulées] (https://www.cracked.com/article_37065_joe-rogan-and-ben-shapiro-argue-ratatouille-and-beaches-that-make-you-old-in-an-ai-assisted-masterpiece .html) de Joe Rogan et Ben Shapiro se disputant à propos du film Ratatouille. Au fur et à mesure que cette technologie progresse, les fabrications au coup par coup pourraient céder la place à des campagnes coordonnées, pas seulement des médias synthétiques, mais des histoires synthétiques entières, comme Horvitz les a appelées dans un article à la fin de l'année dernière. Et une nouvelle génération de moteurs de recherche basés sur l'IA, dirigé par Microsoft et Google, pourraient rendre ces historiques plus faciles à trouver et presque impossibles à détecter pour les utilisateurs.

Même si des craintes similaires à propos des médias sociaux, de la télévision et de la radio se sont avérées quelque peu alarmistes, il y a des raisons de croire que l'IA pourrait vraiment être la nouvelle variante de la désinformation qui rend les mensonges sur les futures élections, manifestations ou fusillades de masse à la fois plus contagieux et résistants au système immunitaire. . Considérez, par exemple, la [grippe aviaire] qui fait rage (https://www.theatlantic.com/science/archive/2023/02/bird-flu-avian-influenza-research-covid-lab-leak/673109/) épidémie, qui n'a pas encore commencé à se propager d'homme à homme. Un agent politique - ou un simple conspirateur - pourrait utiliser des programmes similaires à ChatGPT et DALL-E 2 pour générer et publier facilement un grand nombre d'histoires sur des laboratoires chinois, de l'Organisation mondiale de la santé ou du Pentagone bricolant avec le virus, antidatées à divers moments dans le passé et complétées par de faux documents, enregistrements audio et vidéo , et commentaires d'experts. Une histoire synthétique dans laquelle une grippe aviaire armée par le gouvernement serait prête à disparaître si la grippe aviaire commençait à circuler parmi les humains. Un propagandiste pourrait simplement relier les nouvelles à leur trame de fond entièrement fabriquée - mais entièrement formée et apparemment bien documentée - semée sur Internet, diffusant une fiction qui pourrait [consommer la politique de la nation] (https://www.theatlantic.com/science /archive/2023/02/covid-pandemic-origin-china-lab-leak-theory-energy-department/673230/) et la réponse de santé publique. La puissance des histoires générées par l'IA, m'a dit Horvitz, réside dans "des deepfakes sur une chronologie mélangés à des événements réels pour construire une histoire".

Il est également possible que les histoires synthétiques modifient le type, mais pas la gravité, de la désinformation déjà endémique en ligne. Les gens sont heureux de croire les fausses histoires qu'ils voient sur Facebook, Rumble, Truth Social, YouTube, partout. Avant le Web, la propagande et les mensonges sur les étrangers, les ennemis en temps de guerre, les extraterrestres et le Bigfoot abondaient. Et en ce qui concerne les médias synthétiques ou "deepfakes", les recherches existantes suggèrent qu'ils offrent [étonnamment peu d'avantages par rapport](https://www.theatlantic.com/technology/archive/2022/12/deepfake-synthetic-media-technology- rise-disinformation/672519/) avec des manipulations plus simples, telles que des séquences mal étiquetées ou la rédaction de faux reportages. Vous n'avez pas besoin d'une technologie de pointe pour que les gens croient à une théorie du complot. Pourtant, Horvitz pense que nous sommes dans un précipice : la vitesse à laquelle l'IA peut générer une désinformation de haute qualité sera écrasante.

La désinformation automatisée produite à un rythme et à une échelle accrus pourrait permettre ce qu'il appelle des «explications génératives contradictoires». Dans une sorte de parallèle au contenu ciblé que vous êtes servi sur les réseaux sociaux, qui est testé et optimisé en fonction de ce avec quoi les gens interagissent, les propagandistes pourraient effectuer de petits tests pour déterminer quelles parties d'un récit inventé sont plus ou moins convaincantes, et utiliser cette rétroaction ainsi que la recherche en psychologie sociale pour améliorer de manière itérative cette histoire synthétique. Par exemple, un programme pourrait réviser et moduler les informations d'identification et les citations d'un expert fabriqué pour atterrir avec certaines données démographiques. Des modèles de langage comme ChatGPT menacent également de noyer Internet dans des [textes Potemkine] (https://arxiv.org/abs/2301.04246) tout aussi complotistes et adaptés, non pas des publicités ciblées, mais des complots ciblés.

Le projet de Big Tech de remplacer la recherche Internet traditionnelle par des chatbots pourrait augmenter considérablement ce risque. Les modèles de langage d'IA intégrés à Bing et Google sont notoirement terribles à vérifiant les faits et sujets aux faussetés, ce qui les rend peut-être susceptibles de diffuser de fausses histoires. Bien que bon nombre des premières versions de la recherche basée sur les chatbots donnent des réponses de style Wikipédia avec des notes de bas de page, l'intérêt d'une histoire synthétique est de fournir un ensemble de sources alternatives et convaincantes. Et toute la prémisse des chatbots est la commodité - pour que les gens leur fassent confiance sans vérifier.

Si cette désinformation apocalyptique semble familière, c'est parce qu'elle l'est. "L'affirmation concernant la technologie [IA] est la même que celle que les gens faisaient hier à propos d'Internet", déclare Joseph Uscinski, politologue à l'Université de Miami qui étudie les théories du complot. "Oh mon Dieu, les mensonges voyagent plus loin et plus vite que jamais, et tout le monde va [tout croire](https://www.nytimes.com/2016/11/03/technology/how-the-internet-is-loosening-our -grip-on-the-truth.html) qu'ils voient. Mais il n'a trouvé aucune preuve que les croyances dans les théories du complot ont [augmenté parallèlement à l'utilisation des médias sociaux](https: //onlinelibrary.wiley.com/doi/full/10.1111/pops.12568), ou même tout au long de la [pandémie de coronavirus](https://journals.plos.org/plosone/article?id=10.1371/journal.pone. 0270429); la recherche sur les récits communs tels que les chambres d'écho est également fragile.

Les gens adhèrent à des histoires alternatives non pas parce que les nouvelles technologies les rendent plus convaincants, dit Uscinski, mais pour la même raison qu'ils croient à n'importe quoi d'autre - peut-être que le complot confirme leurs croyances existantes, correspond à leur conviction politique ou provient d'une source en laquelle ils ont confiance. Il a cité le changement climatique comme exemple : Les gens qui croient au réchauffement anthropique, pour la plupart, n'ont « pas étudié les données eux-mêmes. Tout ce qu'ils font, c'est écouter leurs sources de confiance, ce qui est exactement ce que font aussi les négationnistes du changement climatique. C'est exactement le même mécanisme; c'est juste dans ce cas que les élites républicaines se trompent.

Bien sûr, les médias sociaux ont changé la façon dont les gens produisent, diffusent et consomment des informations. L'IA générative pourrait faire de même, mais avec de nouveaux enjeux. "Dans le passé, les gens essayaient des choses par intuition", m'a dit Horvitz. "Mais l'idée d'itérer plus rapidement, avec une précision plus chirurgicale sur la manipulation des esprits, est une chose nouvelle. La fidélité du contenu, la facilité avec laquelle il peut être généré, la facilité avec laquelle vous pouvez publier plusieurs événements sur des chronologies »-toutes sont des raisons importantes de s'inquiéter. Déjà, dans la pré-élection de 2020, Donald Trump a semé le doute sur la fraude électorale qui a renforcé la campagne "Stop the Steal" une fois qu'il a perdu. À l'approche de novembre 2024, des agents politiques partageant les mêmes idées pourraient utiliser l'IA pour créer de faux personnages et de faux responsables électoraux, fabriquer des vidéos de manipulation de machines à voter et de bourrage d'urnes, et écrire de fausses nouvelles, qui se réuniraient toutes dans une histoire synthétique hermétique. où l'élection a été volée.

Les campagnes Deepfake pourraient nous envoyer plus loin dans "un monde post-épistémique, où vous ne savez pas ce qui est vrai ou faux", a déclaré Horvitz. Un homme d'affaires accusé d'actes répréhensibles pourrait appeler des preuves incriminantes générées par l'IA ; un politicien pourrait planter des assassinats documentés mais entièrement faux de rivaux. Ou peut-être, de la même manière que Truth Social et Rumble fournissent des alternatives conservatrices à Twitter et YouTube, une alternative d'extrême droite à la recherche alimentée par l'IA, formée sur une multitude de conspirations et d'histoires synthétiques, augmentera en réponse aux craintes concernant Google, Bing et "[WokeGPT](https://nymag.com /intelligencer/2023/02/fear-not-conservatives-chatgpt-wont-turn-your-kid-woke.html) » étant trop progressiste. "Il n'y a rien dans mon esprit qui empêcherait que cela se produise dans la capacité de recherche", Renée DiResta, responsable de la recherche à l'Observatoire Internet de Stanford, qui a récemment écrit un article sur les modèles linguistiques et la désinformation, dit. "Cela va être considéré comme une opportunité de marché fantastique pour quelqu'un." RightWingGPT et une [IA chrétienne conservatrice](https://news.gab.com/2023/01/christians-must-enter-the-ai -arms-race/) sont déjà en discussion, et Elon Musk est apparemment recrutant des talents pour construire un rival conservateur à OpenAI.

Selon Horvitz, la préparation de telles campagnes de deepfake nécessitera une variété de stratégies, y compris des efforts d'éducation aux médias, des méthodes de détection améliorées et une réglementation. Le plus prometteur pourrait être de créer une norme pour établir la provenance de n'importe quel média - un journal de l'endroit où une photo a été prise et toutes les façons dont elle a été modifiée jointe au fichier sous forme de métadonnées, comme une chaîne de possession pour les preuves médico-légales - qui Adobe, Microsoft et plusieurs autres sociétés travaillent sur. Mais les gens auraient encore besoin de comprendre et de faire confiance à ce journal. "Vous avez ce moment à la fois de prolifération de contenu et de confusion sur la façon dont les choses se déroulent", déclare Rachel Kuo, professeur d'études sur les médias à l'Université de l'Illinois à Urbana-Champaign. La provenance, la détection ou d'autres méthodes de démystification peuvent encore reposer en grande partie sur des personnes qui écoutent des experts, qu'il s'agisse de journalistes, de responsables gouvernementaux ou de chatbots IA, qui leur disent ce qui est légitime et ce qui ne l'est pas. Et même avec de telles chaînes de responsabilité en silicone, des formes plus simples de mensonge – sur les informations par câble, sur le parquet du Congrès, dans la presse – continueront.

Considérer la technologie comme le moteur de la désinformation et du complot implique que la technologie est une solution suffisante, ou du moins nécessaire. Mais mettre l'accent sur l'IA pourrait être une erreur. Si nous sommes principalement inquiets "que quelqu'un va truquer Joe Biden, en disant qu'il est un pédophile, alors nous [ignorons la raison pour laquelle] (https://misinforeview.hks.harvard.edu/article/ critique-désinformation-études-histoire-pouvoir-et-politique/) une information comme celle-ci serait résonnante », m'a dit Alice Marwick, professeur d'études médiatiques à l'Université de Caroline du Nord à Chapel Hill. Et affirmer que les nouvelles technologies, qu'il s'agisse des médias sociaux ou de l'IA, sont principalement ou uniquement responsables de déformer la vérité risque de réifier le pouvoir des publicités, des algorithmes et des flux de Big Tech pour déterminer nos pensées et nos sentiments. Comme le journaliste Joseph Bernstein l'a écrit : « C'est un modèle de cause à effet dans que les informations diffusées par quelques corporations ont tout le pouvoir de justifier les croyances et les comportements du démos. D'une certaine manière, ce monde est une sorte de confort. Facile à expliquer, facile à modifier et facile à vendre. »

L'histoire la plus compliquée pourrait être liée au fait que les humains, et peut-être les machines, ne sont pas toujours très rationnels ; avec ce qu'il faudrait peut-être faire pour qu'écrire l'histoire ne soit plus une guerre. L'historienne Jill Lepore a déclaré que "[la note de bas de page a sauvé Wikipédia] (https://youtu.be/u-j4-FDKQxI?t=2360)", suggérant que l'approvisionnement transparent a aidé le site Web à devenir, ou du moins à sembler être , une source de premier ordre pour des informations assez fiables. Mais peut-être que maintenant la note de bas de page, cette impulsion et cet élan de vérification, est sur le point de couler Internet, si ce n'est pas déjà fait.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd