Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4253

Incidents associés

Incident 8342 Rapports
China Targets AI-Driven Fraud and Deepfake Scandals with New Crackdowns

Loading...
Méfiez-vous de l'utilisation de la technologie de l'intelligence artificielle pour commettre de nouveaux crimes
baijiahao.baidu.com · 2023

La technologie de l’intelligence artificielle (IA) se développe rapidement et certains criminels l’utilisent pour mener des activités illégales et criminelles, ce qui pose de sérieux défis à la sécurité des réseaux. Récemment, les organes de sécurité publique ont résolu de nombreuses affaires impliquant l’intelligence artificielle.

En juin de cette année, la police du district de Shangyu, Shaoxing, province du Zhejiang, a découvert qu'un internaute avait publié une vidéo sur un incendie dans le parc industriel de Shangyu, et le nombre de vues a augmenté rapidement en peu de temps. Dans la vidéo, un violent incendie s'est déclaré dans un parc industriel du district de Shangyu, et tout le parc était couvert d'une épaisse fumée. Des explosions ont été entendues de temps en temps et la scène était passionnante.

La police a vérifié que les scènes de bâtiments et d'incendies de forêt dans la vidéo n'étaient pas de véritables scènes du parc industriel et étaient soupçonnées de provenir d'autres vidéos. Après analyse, la police a déterminé que la vidéo avait été réalisée en couplant plusieurs clips vidéo différents sur Internet à l'aide d'une technologie de synthèse d'intelligence artificielle. Après enquête, la police a déterminé qu'un employé d'une entreprise de technologie de réseau était soupçonné d'avoir commis un crime et s'est immédiatement rendue sur les lieux de l'entreprise pour arrêter trois suspects, dont Tang.

"Le suspect a d'abord collecté des sujets d'actualité sur Internet, généré automatiquement des scripts via des services d'intelligence artificielle générative, récupéré des clips vidéo pertinents sur Internet, puis utilisé un logiciel d'IA pour synthétiser une vidéo complète avec de la musique et des sous-titres. En moins d'une minute, un fausse La vidéo a été « fraîchement diffusée ». Shen Linfeng, un policier du bureau du district de Shangyu, a déclaré que depuis mai de cette année, afin de gagner du trafic et d'attirer l'attention des gens, le gang utilise la technologie de l'intelligence artificielle pour créer de fausses vidéos. , répandre des rumeurs et publier des vidéos non vérifiées en ligne. Il existe au total plus de 3 000 fausses vidéos.

Alors que la technologie de reconnaissance faciale devient de plus en plus populaire, certains criminels ont commencé à utiliser des technologies telles que le « changement de visage par l'IA » pour commettre des crimes tels que le vol et la fraude, suscitant des inquiétudes du public quant à la protection des informations personnelles.

« Mon application semble avoir été piratée ! » Le 13 avril de cette année, Mme Zhu s'est rendue au poste de police local pour signaler le cas, disant que quelqu'un s'était connecté à une application gouvernementale et avait téléchargé la licence de commerce électronique de l'entreprise de Mme Zhu sans autorisation. autorisation. Après avoir reçu l'alarme, l'agence locale de sécurité publique a rapidement lancé une enquête et confirmé rapidement que Zeng était soupçonné d'avoir commis un crime majeur.

Après examen, le suspect Zeng Moumou a utilisé son numéro de téléphone portable pour créer un compte et a procédé à une authentification par son nom réel via le nom de Mme Zhu, son numéro d'identification et d'autres informations, puis l'a lié par reconnaissance faciale et s'est finalement connecté avec succès à le compte pour commettre le crime.

"Zeng Moumou a détourné le trafic des magasins en ligne, utilisé des photos de visage fournies par des "clients", utilisé un logiciel d'IA professionnel pour créer des animations faciales synthétiques, s'est connecté à diverses applications en utilisant la vérification par reconnaissance faciale et a obtenu illégalement des informations pertinentes, a présenté le policier chargé de l'affaire." cas. .

"Le prix de chaque transaction est différent. Je pensais juste qu'il serait plus facile de gagner de l'argent de cette façon. Je ne m'attendais pas à avoir enfreint la loi." Zeng l'a regretté. Il est entendu que Zeng a créé plus de 1 000 visages dynamiques grâce à ces moyens et a réalisé un bénéfice de plus de 90 000 yuans. Actuellement, Zeng Moumou fait l'objet de mesures pénales coercitives et l'affaire est en cours de traitement.

La personne compétente en charge du Bureau de cybersécurité du ministère de la Sécurité publique a déclaré : « Les documents utilisés par les criminels pour mettre en œuvre le « changement de visage par l'IA » sont principalement des photos, en particulier des photos de cartes d'identité, et sont combinés avec le nom de la personne. et numéro d'identification pour percer le système de vérification de la reconnaissance faciale. » Pour prévenir et combattre ce nouveau type de criminalité, les organes de sécurité publique se sont associés à des unités de recherche scientifique pour procéder à des évaluations de sécurité des technologies de reconnaissance faciale et de détection de l'activité physique, couvrant un large éventail de nombre d'utilisateurs nationaux et problèmes importants et dangers cachés. Diverses applications clés ont rapidement découvert les risques et les dangers du système de vérification de la reconnaissance faciale et ont informé les entités opérationnelles de mettre à niveau les mesures de protection de sécurité et les algorithmes de reconnaissance faciale. « Selon les rapports, les organes de sécurité publique se sont appuyés sur l'opération spéciale « Clean Network ». pour organiser des batailles spéciales pour réprimer. La source du crime de fuite d'informations d'image telles que des photos de cartes d'identité, a résolu de nombreux cas de « changement de visage par l'IA » et a arrêté les suspects criminels concernés, freinant ainsi l'élan de ce type de crime.

"Les criminels abusent de la technologie de l'intelligence artificielle, causant de graves dommages à la société et violant les lois en vigueur." La police a déclaré que, selon la loi, l'utilisation de la technologie de l'intelligence artificielle pour produire et diffuser de fausses informations et perturber l'ordre social peut constituer une fabrication et une diffusion délibérée de fausses informations. Crime : l'utilisation d'une technologie de synthèse artificielle pour pirater les comptes d'autrui et voler les informations personnelles d'autrui peut constituer un crime de violation des informations personnelles des citoyens. En outre, si des moyens technologiques tels que l’intelligence artificielle sont utilisés pour se livrer à des actes de harcèlement, d’intimidation, de menaces, etc., cela peut constituer un délit consistant à susciter des querelles et à provoquer des troubles.

La technologie de l'intelligence artificielle est simple à utiliser, hautement personnalisable et propose un large éventail de scénarios d'application, ce qui réduit la difficulté des crimes en chaîne et est extrêmement dangereuse lorsqu'elle est utilisée par des criminels tels que les pirates informatiques. Selon les rapports, pour les nouvelles applications et les nouveaux formats commerciaux générés par la technologie de l'intelligence artificielle, les organes de sécurité publique adhèrent en parallèle aux orientations de valeurs et à la « correction des erreurs » techniques, tout en protégeant le développement sain de la technologie de l'intelligence artificielle, en empêchant et en réprimant son utilisation. de la technologie de l'intelligence artificielle pour porter atteinte aux droits des citoyens et mettre en danger la sécurité publique dans de nouveaux cas, maintenir un environnement réseau propre et intègre et faire tout son possible pour assurer la sécurité du cyberespace.

La police chargée de l'affaire leur a rappelé de se méfier de l'utilisation de la technologie de l'intelligence artificielle pour commettre de nouveaux crimes. Il est recommandé aux individus de renforcer leur sensibilisation à la protection des informations, de prévenir les fuites d'informations et de ne pas fournir facilement à d'autres des informations biométriques personnelles telles que des visages et des empreintes digitales. ; gérer leur propre « cercle d'amis » et essayer d'éviter de trop exposer votre vie privée ; méfiez-vous des publicités, des gains de loterie et autres liens envoyés par des plateformes inconnues, et ne cliquez pas et ne remplissez pas d'informations à volonté pour éviter d'être trompé.

« Quotidien du Peuple » (Page 18, 26 octobre 2023)

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd