Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4884

Incidents associés

Incident 70136 Rapports
American Asylum Seeker John Mark Dougan in Russia Reportedly Spreads Disinformation via AI Tools and Fake News Network

Incident 7344 Rapports
Leading AI Models Reportedly Found to Mimic Russian Disinformation in 33% of Cases and to Cite Fake Moscow News Sites

Loading...
Des chatbots populaires diffusent de fausses informations russes, selon une étude
bankinfosecurity.com · 2024

OpenAI, Meta et 8 autres chatbots utilisent le réseau de désinformation comme source Rashmi Ramesh (rashmiramesh_) • 19 juin 2024        

Les chatbots d'intelligence artificielle populaires regorgent de désinformation russe, prévient NewsGuard, le système de notation des sites d'actualités et d'informations.

Les chercheurs de NewsGuard ont saisi des messages dans 10 chatbots, dont ChatGPT-4 d'OpenAI, Grok et Mistral d'Elon Musk, et ont découvert qu'environ un tiers des réponses contenaient de la désinformation extraite d'un réseau de faux sites d'actualités locales et de vidéos YouTube créés par John Mark Dougan, un fugitif américain qui a obtenu l'asile politique en Russie.

Copilot de Microsoft, Meta AI, Claude d'Anthropic et Gemini de Google ont également participé à l'étude.

L'entreprise a testé près de 600 messages basés sur 19 faux récits liés au réseau de désinformation russe, comme de fausses allégations de corruption du président ukrainien Volodymyr Zelenskyy.

Les chatbots ont régurgité comme des faits des informations erronées trouvées sur les sites de Dougan, comme une prétendue écoute téléphonique découverte dans la résidence de l'ancien président Donald Trump à Mar-a-Lago, a déclaré NewsGuard.

Les chatbots n'ont pas reconnu que des sites tels que « The Boston Times » ou « The Houston Post » sont des façades de propagande russe, probablement créées avec l'aide de l'IA. « Ce cercle vicieux signifie que des faussetés sont générées, répétées et validées par des plateformes d'IA », a déclaré NewsGuard.

La société a déclaré qu'elle n'avait pas évalué chaque chatbot en fonction de la quantité de désinformation qu'il avait diffusée, car le problème était « omniprésent dans l'ensemble du secteur de l'IA plutôt que spécifique à un certain grand modèle linguistique ».

Ces résultats surviennent à un moment où les gens ont commencé à s'appuyer sur des sources telles que les influenceurs des médias sociaux et les chatbots IA pour obtenir des informations rapides et personnalisées.

La désinformation liée à l’IA a été monnaie courante cette année électorale, les acteurs malveillants utilisant cette technologie comme arme pour générer des deepfakes vidéo et audio afin de diffuser de fausses informations (voir : Les piratages APT et les fuites modifiées par l’IA posent les plus grandes menaces électorales).

Les entreprises de médias sociaux et les géants de l’IA se sont engagés à limiter l’utilisation abusive de cette technologie pour propager de fausses informations susceptibles d’influencer les élections. OpenAI a récemment découvert que les acteurs malveillants menant des campagnes d'influence secrètes s'appuyaient également sur des chatbots IA.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd