Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4886

Incidents associés

Incident 70136 Rapports
American Asylum Seeker John Mark Dougan in Russia Reportedly Spreads Disinformation via AI Tools and Fake News Network

Incident 7344 Rapports
Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Loading...
La plupart des chatbots IA sont désormais « contaminés » et diffusent de la propagande russe, selon une étude
firstpost.com · 2024

Selon une étude réalisée par le service de veille de l’actualité NewsGuard, les principaux modèles d’IA générative, dont ChatGPT d’OpenAI, répéteraient la désinformation russe.

Cette révélation intervient dans un contexte d’inquiétudes croissantes quant au rôle de l’IA dans la diffusion de fausses informations, en particulier au cours d’une année marquée par des élections mondiales où les utilisateurs s’appuient de plus en plus sur les chatbots pour obtenir des informations précises.

L’étude de NewsGuard visait à déterminer si les chatbots d’IA pouvaient perpétuer et valider la désinformation. En saisissant 57 invites dans 10 chatbots différents, l’étude a découvert que ces modèles d’IA répétaient des récits de désinformation russes 32 % du temps.

Les invites utilisées dans l’étude se concentraient sur des récits de désinformation connus pour être propagés par John Mark Dougan, un fugitif américain qui aurait répandu des mensonges depuis Moscou. Les chatbots testés comprenaient ChatGPT-4, Smart Assistant de You.com, Grok, Inflection, Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Google Gemini et Perplexity.

Sur les 570 réponses générées par ces chatbots, 152 contenaient de la désinformation explicite, 29 répétaient les fausses affirmations avec une clause de non-responsabilité et 389 ne contenaient aucune désinformation. Les réponses sans désinformation refusaient de répondre aux invites dans 144 réponses ou fournissaient une réfutation des fausses affirmations dans 245 réponses.

NewsGuard a souligné que les chatbots ne reconnaissaient pas les sites de propagande tels que le « Boston Times » et le « Flagstaff Post », amplifiant par inadvertance les récits de désinformation. Cela crée un cycle problématique dans lequel les faussetés sont générées, répétées et validées par les plateformes d’IA.

L’étude s’est concentrée sur 19 faux récits importants liés au réseau de désinformation russe. Il s’agissait notamment d’allégations de corruption impliquant le président ukrainien Volodymyr Zelenskyy et d’autres fausses informations à connotation politique.

Alors que la technologie de l’IA continue d’évoluer, les gouvernements du monde entier s’efforcent de réglementer son utilisation pour protéger les utilisateurs de la désinformation et des préjugés. NewsGuard a soumis ses conclusions à l’Institut américain de sécurité de l’IA du National Institute of Standards and Technology (NIST) et à la Commission européenne, dans l’espoir d’influencer les futures mesures réglementaires.

Dans le même ordre d’idées, le Comité de surveillance et de responsabilité de la Chambre des représentants des États-Unis a lancé une enquête sur NewsGuard lui-même, s’interrogeant sur son rôle potentiel dans les campagnes de censure.

Cela souligne le paysage complexe de la réglementation de l’information, où même les organismes de surveillance sont sous surveillance.

Les conclusions de l’étude de NewsGuard soulèvent d’importantes questions sur la fiabilité des chatbots IA en tant que sources d’information. À mesure que ces outils s’intègrent davantage dans la vie quotidienne, il devient crucial de garantir leur exactitude et leur impartialité.

L’étude suggère que sans mesures de protection appropriées, les modèles d’IA pourraient contribuer par inadvertance à la diffusion de fausses informations, soulignant la nécessité d’une surveillance et d’un perfectionnement continus de ces technologies.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd