Incidents associés

OpenAI, Meta et 8 autres chatbots utilisent le réseau de désinformation comme source Rashmi Ramesh (rashmiramesh_) • 19 juin 2024
Les chatbots d'intelligence artificielle populaires regorgent de désinformation russe, prévient NewsGuard, le système de notation des sites d'actualités et d'informations.
Les chercheurs de NewsGuard ont saisi des messages dans 10 chatbots, dont ChatGPT-4 d'OpenAI, Grok et Mistral d'Elon Musk, et ont découvert qu'environ un tiers des réponses contenaient de la désinformation extraite d'un réseau de faux sites d'actualités locales et de vidéos YouTube créés par John Mark Dougan, un fugitif américain qui a obtenu l'asile politique en Russie.
Copilot de Microsoft, Meta AI, Claude d'Anthropic et Gemini de Google ont également participé à l'étude.
L'entreprise a testé près de 600 messages basés sur 19 faux récits liés au réseau de désinformation russe, comme de fausses allégations de corruption du président ukrainien Volodymyr Zelenskyy.
Les chatbots ont régurgité comme des faits des informations erronées trouvées sur les sites de Dougan, comme une prétendue écoute téléphonique découverte dans la résidence de l'ancien président Donald Trump à Mar-a-Lago, a déclaré NewsGuard.
Les chatbots n'ont pas reconnu que des sites tels que « The Boston Times » ou « The Houston Post » sont des façades de propagande russe, probablement créées avec l'aide de l'IA. « Ce cercle vicieux signifie que des faussetés sont générées, répétées et validées par des plateformes d'IA », a déclaré NewsGuard.
La société a déclaré qu'elle n'avait pas évalué chaque chatbot en fonction de la quantité de désinformation qu'il avait diffusée, car le problème était « omniprésent dans l'ensemble du secteur de l'IA plutôt que spécifique à un certain grand modèle linguistique ».
Ces résultats surviennent à un moment où les gens ont commencé à s'appuyer sur des sources telles que les influenceurs des médias sociaux et les chatbots IA pour obtenir des informations rapides et personnalisées.
La désinformation liée à l’IA a été monnaie courante cette année électorale, les acteurs malveillants utilisant cette technologie comme arme pour générer des deepfakes vidéo et audio afin de diffuser de fausses informations (voir : Les piratages APT et les fuites modifiées par l’IA posent les plus grandes menaces électorales).
Les entreprises de médias sociaux et les géants de l’IA se sont engagés à limiter l’utilisation abusive de cette technologie pour propager de fausses informations susceptibles d’influencer les élections. OpenAI a récemment découvert que les acteurs malveillants menant des campagnes d'influence secrètes s'appuyaient également sur des chatbots IA.