Incidents associés
OpenAI a révélé la découverte d'une opération du gouvernement chinois qui utilise l'intelligence artificielle (IA) pour surveiller en temps réel les contenus anti-chinois sur les réseaux sociaux occidentaux, rapporte le New York Times (https://www.nytimes.com/2025/02/21/technology/openai-chinese-surveillance.html).
Le système basé sur l'IA, que les chercheurs ont appelé Peer Review, a été découvert après que des experts ont remarqué l'utilisation des outils OpenAI pour déboguer le code sous-jacent à ce logiciel espion.
"C'est la première fois que nous voyons un système de surveillance basé sur l'IA aussi puissant", a déclaré Ben Nimmo, chercheur principal chez OpenAI. "Les acteurs de la menace nous donnent parfois un aperçu de ce qu'ils font dans d'autres parties d'Internet en raison de la façon dont ils utilisent nos modèles d'IA."
Selon OpenAI, le système de surveillance chinois est basé sur le modèle Llama développé par Meta. Depuis que Llama a été publié en open source, il a été utilisé pour créer ce programme.
OpenAI a également découvert une autre campagne chinoise appelée Sponsored Discontent, qui utilisait les outils d'OpenAI pour créer du contenu en anglais ciblant les dissidents chinois. Le groupe a également traduit des articles critiques envers les États-Unis et les a diffusés en espagnol en Amérique latine.
Le rapport d'OpenAI met également en évidence d'autres menaces. En particulier, l'entreprise a découvert une campagne du Cambodge qui utilisait l'IA pour participer à un système de fraude appelé « abattage de porcs » --- une escroquerie dans laquelle les hommes à la recherche de rencontres en ligne sont ciblés, puis les fraudeurs développent des relations avec eux et les attirent ensuite dans des systèmes d'investissement en utilisant l'IA pour créer des commentaires convaincants sur les réseaux sociaux.
OpenAI note que, malgré les risques, l'intelligence artificielle peut également être un outil puissant pour détecter et prévenir les activités malveillantes.