Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5162

Incidents associés

Incident 96827 Rapports
'Pravda' Network, Successor to 'Portal Kombat,' Allegedly Seeding AI Models with Kremlin Disinformation

Loading...
Peut-être que l'IA est en train de tuer Internet, après tout
bloomberg.com · 2025

[Fil Menczer](https://luddy.indiana.edu/contact/profile/?Filippo_Menczer « Fil Menczer ») a eu sa première idée de ce qu'il appelle les « bots sociaux » au début des années 2010. Alors qu'il cartographiait la circulation de l'information sur Twitter, il est tombé sur quelques groupes de comptes qui semblaient suspects. Certains partageaient la même publication des milliers de fois. D'autres partageaient des milliers de publications de chaque compte. « Ce ne sont pas des humains », se souvient-il avoir pensé.

C'est ainsi qu'a débuté une longue carrière dans l'observation des bots. Professeur d'informatique distingué à l'Université d'Indiana à Bloomington, Menczer a étudié la façon dont les bots prolifèrent, manipulent les êtres humains et les montent les uns contre les autres. En 2014, il faisait partie de l'équipe qui a développé l'outil [BotOrNot](https://iuni.iu.edu/projects/botometer « BotOrNot ») pour aider les utilisateurs à repérer les faux comptes. Il est désormais considéré comme l'un des plus éminents chasseurs de robots d'Internet.

Si quelqu'un est prédisposé à remarquer les automates parmi nous, c'est bien Menczer. Il y a quelques années, lorsqu'une hypothèse connue sous le nom de [théorie de l'Internet mort](https://www.forbes.com/sites/danidiplacido/2024/01/16/the-dead-internet-theory-explained/ « La théorie de l'Internet mort, expliquée ») a commencé à circuler, postulant que la quasi-totalité des conversations en ligne avaient été remplacées par des bavardages générés par l'intelligence artificielle, il l'a rejetée comme une absurdité. Aujourd'hui, cependant, l'essor de l'IA générative, avec ses petits amis chatbots et ses influenceurs en IA, incite Menczer à considérer la théorie sous un jour nouveau. Il ne prend toujours pas l'idée au pied de la lettre, mais il commence, comme on dit, à prendre son message au sérieux. « Suis-je inquiet ? » demande-t-il. « Oui, je suis très inquiet. »

La théorie de l'Internet mort est devenue populaire en 2021, suite à la publication d'un utilisateur nommé IlluminatiPirate sur un forum en ligne obscur. IlluminatiPirate affirmait qu'Internet était devenu un vaste désert inhumain, rempli de publications copiées par des algorithmes optimisés. Cette théorie imputait tout cela à une conspiration gouvernementale secrète, ce qui la rendait facile à rejeter. Mais l'arrivée d'outils comme ChatGPT et Midjourney lui a donné un aspect carrément prophétique. Les réseaux sociaux paraissent plus étranges. La recherche, pire. Des réseaux d'information entièrement générés par l'IA ont surgi du jour au lendemain. Meta Platforms Inc. envisage un avenir où l'IA serait impliquée dans la création d'une part substantielle des publications sur Facebook et Instagram. Des sites comme Wikipédia croulent sous le poids des robots d'exploration de l'IA qui fouillent leurs pages à la recherche d'informations inédites pour alimenter leurs modèles. Tout cela crée une boucle de rétroaction : le contenu généré par l'IA est créé pour satisfaire les systèmes de recommandation alimentés par l'IA, menaçant de transformer les humains en spectateurs.

L'année dernière, [Renée DiResta](https://www.reneediresta.com/ « Renée DiResta »), chercheuse de premier plan en désinformation, et [Josh Goldstein](https://cset.georgetown.edu/staff/josh-a-goldstein/ « Josh Goldstein »), chercheur à l'Université de Georgetown, ont entrepris d'étudier l'utilisation de contenu généré par l'IA dans les spams et les escroqueries. Ils se sont concentrés sur plus de 100 pages Facebook contenant chacune des dizaines d'images générées par l'IA, qui comptaient ensemble des millions d'abonnés. Certaines incluaient de fausses photos de vaches miniatures qui redirigeaient les abonnés vers des sites frauduleux où ils pouvaient soi-disant les acheter. D'autres incluaient des images idylliques de minuscules maisons et de cabanes en rondins, qui redirigeaient les internautes vers des sites web remplis de publicités.

Ces efforts s'inscrivent dans une longue tradition de création de « contenus générés par l'IA » pour monétiser les publicités numériques. Grâce à l'IA générative, le processus d'approvisionnement de ces contenus est devenu beaucoup plus efficace. De plus, des études menées dans le secteur de la publicité montrent que l'IA générative permet aux robots de simuler plus facilement l'activité authentique des utilisateurs, donnant l'impression que de vraies personnes cliquent sur ces publicités.

Dans leur article, DiResta et Goldstein ont identifié de nombreuses pages Facebook grâce aux légendes copiées-collées qu'elles partageaient. « C'est mon premier gâteau ! Je serai ravi de vos notes », pouvait-on lire sur au moins 18 images différentes de 18 personnes générées par l'IA posant avec 18 gâteaux différents. Ces pages attiraient des abonnés humains, souvent non impliqués. Plus déconcertantes encore étaient les centaines de milliers de « j'aime » et de réactions chaleureuses et affectueuses sur une image de Jésus représentée par l'IA sous la forme d'un crabe, appartenant à un créneau particulier, mais conséquent, d'images d'IA sur le thème du Christ en crustacé. L'art IA de mauvaise qualité est devenu si répandu en ligne que les observateurs ont donné à ce type de contenu son propre nom : « slop ».

Dans certains cas, la motivation derrière le slop n'est pas simplement commerciale. Le réseau de désinformation russe Pravda (https://www.bloomberg.com/news/articles/2023-10-12/android-users-see-pro-putin-propaganda-through-google-loophole, « Pro-Putin Propaganda Flows Onto Android via Google Loophole »), par exemple, a publié des millions d'articles sur des centaines de sites web nouvellement créés depuis l'invasion de l'Ukraine par la Russie, peut-être pour tenter de manipuler les modèles d'IA eux-mêmes en produisant des quantités impressionnantes de propagande destinée à être ingérée par les robots d'exploration de l'IA. Récemment, l'organisme de surveillance des médias NewsGuard a découvert des références à ces sites dans des réponses générées par des chatbots de premier plan.

Les outils d'IA générative permettant de créer du contenu à grande échelle sont apparus à un moment opportun, au moment même où les plateformes sociales s'éloignaient de la recommandation de publications de la famille et des amis pour promouvoir le contenu d'utilisateurs qu'elles ne suivaient pas. Cela a permis à des comptes aléatoires de diffuser du contenu plus largement qu'à l'époque où les réseaux sociaux étaient plus… sociaux. Effectivement, plus DiResta interagissait avec ces pages, plus elle voyait de contenu inutile. « Le contenu n'était pas simplement créé, il était recommandé », explique DiResta, aujourd'hui professeure de recherche associée à Georgetown. « Les machines l'aident à nous trouver. »

Le contenu inutile attire parfois les humains. Il peut être suffisamment étrange ou macabre pour inciter les gens à s'attarder ; parfois, un contenu qui n'a pas à fonctionner dans les limites de la réalité est véritablement plus mignon ou captivant que des scènes de notre monde physique. « Si vous vous limitez aux événements réels ou aux blagues inventées par des humains, vous obtenez un bassin de contenu prédéfini », explique [Jeff Allen](https://integrityinstitute.org/jeff-allen « Jeff Allen »), cofondateur et directeur de la recherche au sein du groupe de réflexion sur la confiance et la sécurité Integrity Institute. « L'IA élargit ce bassin. » Mais le contenu généré et promu par l'IA agit également comme une espèce invasive, se propageant si rapidement qu'il affecte négativement les autres habitants d'Internet. « C'est comme une prolifération d'algues qui peut exploser et étouffer la vie que l'on souhaiterait avoir dans un écosystème sain », explique Allen.

En février, OpenAI a signalé certaines « utilisations malveillantes » de ses modèles. Dans l'un d'eux, une fausse organisation de jeunesse ghanéenne a utilisé des articles et des commentaires générés par l'IA pour tenter de faire basculer les élections de 2024 dans le pays. Dans un autre, des dizaines de comptes potentiellement liés à des cybercriminels nord-coréens ont décroché de vrais emplois dans des entreprises occidentales grâce à des CV et des lettres de motivation générés par l'IA, et même à des profils créés par l'IA se faisant passer pour leurs références. Ils ont utilisé les outils d'OpenAI pour se faire comprendre lors des entretiens d'embauche et, après avoir obtenu un emploi, pour expliquer à leurs collègues pourquoi ils ne prenaient jamais d'appels vidéo. (OpenAI affirme, sans surprise, que ses politiques interdisent strictement ce type de fraude.)

Un autre problème réside dans l'ampleur des efforts de scraping web déployés par les entreprises d'IA pour collecter des données pour leurs modèles. Selon [Tollbit](https://tollbit.com/analytics/ « Tollbit »), une entreprise qui aide les éditeurs à être rémunérés pour le scraping de leurs sites, le volume de scraping par site a doublé entre le troisième et le quatrième trimestre de l'année dernière. À la mort de l'ancien président Jimmy Carter, les services de Wikimedia ont été temporairement ralentis après avoir été frappés par une forte augmentation du trafic provenant de scrapers accédant à une vidéo d'un débat de 1980. « Notre infrastructure est conçue pour supporter des pics de trafic humains soudains lors d'événements à fort intérêt, mais le volume de trafic généré par les robots scrapers est sans précédent et présente des risques et des coûts croissants », a écrit la fondation dans un article de blog.

Certains éditeurs réagissent en concluant des accords avec des entreprises d'IA qui financent l'accès au contenu ou en mettant en place des paywalls pour détourner les robots d'exploration. Cette tendance pourrait remettre en cause l'idée même d'un Web libre et ouvert, prévient [Shayne Longpre](https://www.shaynelongpre.com/ « Shayne Longpre »), doctorant au Massachusetts Institute of Technology et responsable de la Data Provenance Initiative. « Le consommateur moyen aura plus de mal à accéder à certaines informations sans payer, ou devra s'abonner à des robots d'IA pour y accéder », explique-t-il. Parallèlement, « les petits éditeurs web pourraient être exclus du débat. »

La transition vers un Internet piloté par des chatbots pourrait également menacer les plus grands acteurs du Web. Le cas le plus flagrant est peut-être celui de Google, filiale d'Alphabet Inc., dont le moteur de recherche oriente les utilisateurs vers d'autres sources d'information. L'entreprise a commencé à proposer des résumés dynamiques appelés « AI Overviews ». Au-delà de conseils parfois douteux, ces aperçus pourraient compliquer la gestion de sites web sur lesquels d'autres utilisateurs cliqueront. Comme l'a rapporté Bloomberg Businessweek (https://www.bloomberg.com/news/features/2025-03-24/google-s-ai-search-overhaul-racing-chatgpt-for-the-web-s-future « Google recherche une réponse à ChatGPT »), certains éditeurs en ligne ont vu leur trafic chuter, et ils accusent principalement l'IA. (Google rejette cette explication, affirmant que de nombreuses raisons expliquent la croissance ou la baisse de trafic des sites et que les aperçus IA « créent de nouvelles opportunités pour connecter les utilisateurs au contenu web ».) L'essor d'un Internet propulsé par l'IA met en évidence la façon dont les programmes des géants de la technologie sont souvent en contradiction avec les intérêts de leurs utilisateurs. Dans une course pour dominer un avenir axé sur l'IA, ils accélèrent la transition, que le monde soit prêt ou non. Les utilisateurs de Facebook souhaitent-ils vraiment voir les comptes IA se mêler aux publications d'anciens camarades de classe et de parents éloignés, comme l'imaginent les dirigeants de l'entreprise ? Qui sait ? Mais si cela permet de maintenir les utilisateurs fidèles à ses applications à une époque où les publications humaines sont moins fréquentes, Meta est plus que disposé à le découvrir.

Il n'est pas difficile d'imaginer le point final dystopique où toutes ces tendances convergent, soutient Allen. Dans un monde où les utilisateurs réels ne peuvent plus gagner suffisamment d'argent grâce à la publicité numérique pour alimenter leurs sites web, et où leurs publications ne parviennent pas à traverser le vacarme généré par l'IA sur les réseaux sociaux, l'Internet mort l'emporte. Pire encore, des recherches suggèrent que lorsque les modèles d'IA s'entraînent sur du contenu généré par l'IA, ils peuvent s'effondrer. Sans nouvelles créations humaines en ligne, affirme Allen, « Internet est en quelque sorte voué à l'échec ».

Menczer ne croit pas encore à ce scénario catastrophe. Si les entreprises technologiques laissent leurs produits se transformer en viviers de robots bon marché, affirme-t-il, les humains finiront par se tourner vers d'autres solutions. « Si le rapport signal/bruit est si faible qu'il est quasiment nul, alors les gens cesseront de l'utiliser », dit-il. Les entreprises technologiques ne sont pas prêtes à laisser cela se produire.

C'est peut-être vrai. Pourtant, l'une des publications les plus consultées sur Facebook l'année dernière montrait une chambre impeccable avec un ventilateur géant intégré à la tête de lit d'un cadre de lit moderne du milieu du siècle, dominant un matelas nu ; elle a suscité environ 179 000 réactions. « J'ai enfin trouvé le lit parfait », a écrit l'auteur de la publication. « Je parie que je ne transpirerais pas la nuit avec ce truc ! » Le message présentait certaines caractéristiques d'une erreur d'IA (la grille du ventilateur semblait légèrement déformée, et des messages identiques avaient été partagés par d'autres utilisateurs), mais il était impossible d'en être certain. Et c'est précisément là le problème.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd