Problème 3451
L’agence de renseignement chinoise a mis en garde contre les risques posés par la technologie de l’intelligence artificielle, en particulier ceux qui pourraient menacer la sécurité nationale. Le ministère de la Sécurité d’État a déclaré que le développement rapide et la large application de l’IA – comme ChatGPT – posaient des défis qui « pourraient changer fondamentalement le paysage de la sécurité nationale existant dans un avenir proche ».
Dans un article publié jeudi sur son compte WeChat, le ministère a cité les fuites de données, les cyberattaques et la manipulation de données comme des risques potentiels, ainsi que l’impact de la technologie sur l’économie et l’armée.
Plus tôt cette année, le ministre de la Sécurité d’État, Chen Yixin, a mis en garde contre les défis en matière de cybersécurité qui pourraient menacer les infrastructures chinoises. Il a également écrit dans un article publié en septembre que les technologies telles que l’IA avaient apporté de nouvelles et plus grandes incertitudes en matière de sécurité.
Pékin a proposé un cadre pour l’intelligence artificielle lors du forum « la Ceinture et la Route » du mois dernier, appelant à l’égalité des droits pour toutes les nations. Le cadre – connu sous le nom de Global AI Governance Initiative – souligne les énormes opportunités de l’intelligence artificielle mais aussi ses « risques imprévisibles et défis complexes ». La gouvernance de l’IA fait partie des domaines dans lesquels Pékin et Washington se sont engagés à coopérer, selon un communiqué chinois à l’issue du sommet de mercredi entre Xi Jinping et Joe Biden à San Francisco. Dans l’article, l’agence de renseignement chinoise met en garde contre les risques de fuite de données, soulignant que l’IA nécessite d’énormes quantités de données pour l’apprentissage et la formation et qu’elle pourrait inclure de nombreuses informations sensibles. Le ministère a déclaré que toute utilisation abusive ou fuite d'informations pourrait constituer une menace sérieuse pour la vie privée des individus et pour la sécurité nationale.
Il a également mis en garde contre des cyberattaques qui, selon le ministère, pourraient être assistées par l’IA, les pirates étant capables de « lancer facilement des attaques ciblées et hautement dissimulées contre des cibles spécifiques ».
L’agence a également souligné le risque d’« empoisonnement des données » – ou « d’ajout de données malveillantes dans les données d’entraînement de l’IA ». Il a déclaré que cela pourrait perturber le fonctionnement normal des modèles d'analyse de données, donnant l'exemple d'une perturbation de la technologie des voitures intelligentes qui pourrait conduire à des accidents. Un autre exemple est le ciblage des campagnes de propagande, qui, selon elle, pourraient donner lieu à des « pensées négatives » discrètes. infiltrer l’opinion publique.
En outre, l’article soulevait des inquiétudes quant à la perspective que la technologie de l’IA remplace les travailleurs humains dans certains domaines, ce qui, selon lui, pourrait avoir un impact sur la sécurité économique, sociale et politique du pays. Le ministère a déclaré que la technologie pourrait également être utilisée pour provoquer la panique sur les marchés financiers grâce à la manipulation de l'information.
Il a déclaré qu’il y avait des risques dans l’utilisation de l’IA dans des armes létales autonomes, ainsi que dans son utilisation pour rendre les actions militaires plus ciblées et plus précises en connectant les réseaux, les décideurs et les opérateurs.
Le ministère a déclaré qu'il était nécessaire de renforcer les lois et réglementations sur cette technologie, ainsi que de promouvoir la gouvernance mondiale et de réprimer la criminalité impliquant l'IA.
« Faire face aux risques liés à l’IA et saisir l’initiative stratégique du développement de l’IA pour sauvegarder efficacement la sécurité nationale est une question importante dans la gouvernance mondiale de la sécurité nationale », indique l’article.
Il appelle à une meilleure « confiance stratégique » et à une meilleure coordination en matière de développement et de sécurité de l’IA, ainsi qu’à une réponse « prudente » aux risques et aux défis.