Incidents associés
)
Selon une étude réalisée par le service de veille de l’actualité NewsGuard, les principaux modèles d’IA générative, dont ChatGPT d’OpenAI, répéteraient la désinformation russe.
Cette révélation intervient dans un contexte d’inquiétudes croissantes quant au rôle de l’IA dans la diffusion de fausses informations, en particulier au cours d’une année marquée par des élections mondiales où les utilisateurs s’appuient de plus en plus sur les chatbots pour obtenir des informations précises.
L’étude de NewsGuard visait à déterminer si les chatbots d’IA pouvaient perpétuer et valider la désinformation. En saisissant 57 invites dans 10 chatbots différents, l’étude a découvert que ces modèles d’IA répétaient des récits de désinformation russes 32 % du temps.
Les invites utilisées dans l’étude se concentraient sur des récits de désinformation connus pour être propagés par John Mark Dougan, un fugitif américain qui aurait répandu des mensonges depuis Moscou. Les chatbots testés comprenaient ChatGPT-4, Smart Assistant de You.com, Grok, Inflection, Mistral, Copilot de Microsoft, Meta AI, Claude d’Anthropic, Google Gemini et Perplexity.
Sur les 570 réponses générées par ces chatbots, 152 contenaient de la désinformation explicite, 29 répétaient les fausses affirmations avec une clause de non-responsabilité et 389 ne contenaient aucune désinformation. Les réponses sans désinformation refusaient de répondre aux invites dans 144 réponses ou fournissaient une réfutation des fausses affirmations dans 245 réponses.
NewsGuard a souligné que les chatbots ne reconnaissaient pas les sites de propagande tels que le « Boston Times » et le « Flagstaff Post », amplifiant par inadvertance les récits de désinformation. Cela crée un cycle problématique dans lequel les faussetés sont générées, répétées et validées par les plateformes d’IA.
L’étude s’est concentrée sur 19 faux récits importants liés au réseau de désinformation russe. Il s’agissait notamment d’allégations de corruption impliquant le président ukrainien Volodymyr Zelenskyy et d’autres fausses informations à connotation politique.
Alors que la technologie de l’IA continue d’évoluer, les gouvernements du monde entier s’efforcent de réglementer son utilisation pour protéger les utilisateurs de la désinformation et des préjugés. NewsGuard a soumis ses conclusions à l’Institut américain de sécurité de l’IA du National Institute of Standards and Technology (NIST) et à la Commission européenne, dans l’espoir d’influencer les futures mesures réglementaires.
Dans le même ordre d’idées, le Comité de surveillance et de responsabilité de la Chambre des représentants des États-Unis a lancé une enquête sur NewsGuard lui-même, s’interrogeant sur son rôle potentiel dans les campagnes de censure.
Cela souligne le paysage complexe de la réglementation de l’information, où même les organismes de surveillance sont sous surveillance.
Les conclusions de l’étude de NewsGuard soulèvent d’importantes questions sur la fiabilité des chatbots IA en tant que sources d’information. À mesure que ces outils s’intègrent davantage dans la vie quotidienne, il devient crucial de garantir leur exactitude et leur impartialité.
L’étude suggère que sans mesures de protection appropriées, les modèles d’IA pourraient contribuer par inadvertance à la diffusion de fausses informations, soulignant la nécessité d’une surveillance et d’un perfectionnement continus de ces technologies.