Incidents associés
OpenAI a déclaré vendredi avoir découvert des preuves selon lesquelles une opération de sécurité chinoise avait mis au point un outil de surveillance alimenté par l'intelligence artificielle pour recueillir des rapports en temps réel sur les publications anti-chinoises sur les services de médias sociaux dans les pays occidentaux.
Les chercheurs de l'entreprise ont déclaré avoir identifié cette nouvelle campagne, qu'ils ont appelée Peer Review, parce qu'une personne travaillant sur l'outil a utilisé les technologies d'OpenAI pour déboguer une partie du code informatique qui le sous-tend.
Ben Nimmo, chercheur principal d'OpenAI, a déclaré que c'était la première fois que l'entreprise découvrait un outil de surveillance alimenté par l'IA de ce type.
"Les acteurs de la menace nous donnent parfois un aperçu de ce qu'ils font dans d'autres parties d'Internet en raison de la façon dont ils utilisent nos modèles d'IA", a déclaré M. Nimmo.
On craint de plus en plus que l'IA puisse être utilisée à des fins de surveillance, de piratage informatique, de campagnes de désinformation et d'autres fins malveillantes. Bien que des chercheurs comme M. Nimmo affirment que la technologie peut certainement permettre ce genre d'activités, ils ajoutent que l'IA peut également aider à identifier et à arrêter ce type de comportement.
M. Nimmo et son équipe pensent que l'outil de surveillance chinois est basé sur Llama, une technologie d'IA développée par Meta, qui a rendu sa technologie open source, ce qui signifie qu'elle a partagé son travail avec des développeurs de logiciels du monde entier.
Dans un rapport détaillé sur l'utilisation de l'IA à des fins malveillantes et trompeuses, OpenAI a également déclaré avoir découvert une campagne chinoise distincte, appelée Sponsored Discontent, qui utilisait les technologies d'OpenAI pour générer des messages en anglais critiquant les dissidents chinois.
Le même groupe, a déclaré OpenAI, a utilisé les technologies de l'entreprise pour traduire des articles en espagnol avant de les distribuer en Amérique latine. Les articles critiquaient la société et la politique américaines.
Par ailleurs, les chercheurs d'OpenAI ont identifié une campagne, qui serait basée au Cambodge, qui utilisait les technologies de l'entreprise pour générer et traduire des commentaires sur les réseaux sociaux qui ont contribué à une arnaque connue sous le nom de « abattage de porcs », selon le rapport. Les commentaires générés par l'IA ont été utilisés pour courtiser les hommes sur Internet et les entraîner dans un stratagème d'investissement.
(Le New York Times a intenté une action en justice contre OpenAI et Microsoft pour violation du droit d'auteur sur des contenus d'actualité liés à des systèmes d'IA. OpenAI et Microsoft ont nié ces allégations.)