Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5079

Incidents associés

Incident 10375 Rapports
Microsoft Reportedly Blocks 1.6 Million Bot Signup Attempts Per Hour Amid Global AI-Driven Fraud Surge

Loading...
Alors que les escrocs s'accrochent à l'intelligence artificielle, Microsoft affirme bloquer 1,6 million de robots chaque heure
abc.net.au · 2025

Les escrocs ont adopté l'IA comme nouvel outil à leur arsenal : ils génèrent de fausses photos, des clones vocaux, des e-mails de phishing et de faux sites web « à un rythme de plus en plus rapide ».

L'intelligence artificielle a permis aux escrocs de générer du contenu crédible pour leurs attaques « plus facilement et à moindre coût », selon le dernier rapport Cyber Signals de Microsoft.

Ce rapport indique que Microsoft a déjoué environ 6,28 milliards de dollars de tentatives de fraude au cours des 12 mois suivant avril 2024.

Sur la même période, l'entreprise a bloqué environ 1,6 million de robots tentant de créer des comptes chaque heure.

Kelly Bissell, vice-présidente de Microsoft chargée de la lutte contre la fraude et les abus de produits, a déclaré à ABC que l'entreprise avait fermé environ 450 sites web frauduleux « malveillants » l'année dernière.

« Je travaille dans le monde de l'informatique depuis 30 ans et j'ai été témoin de toutes les innovations technologiques, d'Internet au mobile en passant par le cloud, et tout ce qui se trouve entre les deux », a-t-il déclaré.

« Les attaquants adopteront cette nouvelle technologie plus rapidement qu'une entreprise, grande ou petite, ou qu'un particulier. »

« Les escroqueries existent depuis des milliers d'années, mais grâce à la technologie, elles utilisent un outil différent, plus performant. »

« Grâce à l'IA, là où auparavant il fallait des semaines, voire des jours, pour créer un site web malveillant, on peut désormais le faire en quelques minutes. »

L'intelligence artificielle rend les escroqueries courantes plus dangereuses

Selon l'équipe antifraude de Microsoft, les attaques frauduleuses basées sur l'IA se produisent dans le monde entier.

Une grande partie de ces activités provient de Chine et d'Europe, et plus particulièrement d'Allemagne, qui est « l'un des plus grands marchés du e-commerce et des services en ligne au monde ».

M. Bissell a déclaré que chaque consommateur devait être « réfléchi ».

« Avec le temps et l'évolution continue de l'IA, je pense qu'elle va faire de plus en plus partie de nos vies », a-t-il déclaré.

C'est comme pour les téléphones portables, Internet ou les services cloud.

Je pense simplement que chaque consommateur doit être vigilant et utiliser des outils fiables.

Le rapport de Microsoft indique avoir renforcé ses protections pour répondre aux arnaques au support technique et autres menaces persistantes.

L'entreprise a indiqué bloquer en moyenne 4 415 tentatives de connexion suspectes par jour sur son outil Quick Assist, qui permet d'accéder à distance aux écrans d'ordinateur pour le support technique.

Le rapport ajoute que Microsoft utilise des « modèles de détection à grande échelle » pour lutter contre l'IA par l'IA, M. Bissell soulignant que l'entreprise développe une « IA responsable » depuis des années.

« Toutes les IA ne se valent pas », a-t-il déclaré.

« Nous avons donc construit une empreinte d'IA fiable, mais les attaquants utilisent des fonctions d'IA non fiables.

« Tout comme les arnaqueurs peuvent coder rapidement, les acteurs compétents le peuvent aussi. »

Le professeur Matthew Warren est directeur du Centre de recherche et d'innovation en cybersécurité de l'université RMIT. Il a déclaré que la plupart des escroqueries utilisées étaient déjà bien connues des experts, mais que l'utilisation de l'intelligence artificielle avait franchi une nouvelle étape.

« Je pense que le volume et la sophistication considérables de l'utilisation de l'IA par les escrocs pour améliorer leurs services… vont rendre beaucoup plus difficile pour les particuliers de savoir quand des escroqueries ont eu lieu », a-t-il déclaré à l'ABC.

L'intelligence artificielle s'est infiltrée dans presque tous les aspects de notre vie. Alors, à l'approche des élections fédérales, sommes-nous capables de la repérer ?

« Je pense que cela va devenir un problème de plus en plus important, car nous disons toujours que les escrocs ciblent les 5 %.

« Il s'agit des 5 % de personnes qui ouvrent des courriels ou envoient leurs informations personnelles parce qu'on le leur demande. »

On constate donc que les escrocs augmentent le nombre d'individus qu'ils peuvent attaquer… et qu'ils obtiennent de meilleurs résultats commerciaux.

Les escrocs fonctionnent selon un modèle économique, et c'est ce qu'ils recherchent : générer des profits et des revenus.

Escrocs utilisant des chatbots IA et des sites d'achat

Auparavant, selon Microsoft, il fallait des jours, voire des semaines, aux acteurs malveillants pour créer de faux sites d'achat convaincants.

Des outils d'IA tels que l'échange de visages et les chatbots sont utilisés par les organisations criminelles d'Asie du Sud-Est pour optimiser leurs escroqueries. Cependant, certaines opérations semblent moins efficaces que d'autres avec cette nouvelle technologie.

Désormais, grâce à l'IA, des sites web frauduleux peuvent être créés en quelques minutes seulement.

« Grâce aux descriptions de produits, aux images et aux avis clients générés par l'IA, les clients sont dupés et convaincus d'interagir avec un véritable commerçant, exploitant ainsi la confiance des consommateurs envers des marques connues », indique le rapport de Microsoft.

Les chatbots de service client basés sur l'IA peuvent ajouter une couche de tromperie supplémentaire en interagissant de manière convaincante avec les clients.

Ces robots peuvent retarder les rétrofacturations en bloquant les clients avec des excuses pré-écrites et en manipulant les plaintes avec des réponses générées par l'IA qui donnent aux sites frauduleux une apparence professionnelle.

Selon Scamwatch, les Australiens ont perdu plus d'argent en 2024 à cause des arnaques aux achats que de tout autre type d'arnaque signalé.

Au total, 10 022 Australiens ont déclaré des pertes totales de 9,8 millions de dollars l'année dernière.

La société de paiement ACI Worldwide a indiqué que les Australiens avaient perdu 1 224 millions de dollars en 2023 à cause des arnaques aux paiements push autorisés.

L'arnaque trompait les victimes pour qu'elles initient un paiement. Le rapport Scamscope de l'entreprise a révélé que l'IA avait permis aux escrocs d'amplifier la confiance et d'automatiser des attaques de précision avec « sophistication et à grande échelle ».

Le directeur général de l'entreprise pour le Pacifique, Trent Gunthorpe, a déclaré Les escrocs ont pu développer leurs compétences plus rapidement qu'auparavant.

« Sur le dark web, on peut acheter une arnaque en tant que service », a-t-il déclaré.

« L'escroc invisible et peu averti peut désormais acheter et devenir très sophistiqué très rapidement et commencer à utiliser certains de ces outils.

« [Cela] leur permet, par exemple, de récupérer des informations sur les réseaux sociaux pour personnaliser les messages destinés à ces victimes potentielles. »

« Nous avons entendu parler de cas de piratage d'entreprises et de vols et de revente d'informations clients sur le dark web ; c'est bien plus vaste. »

La maîtrise du numérique est « essentielle » pour assurer sa sécurité

Pour assurer sa sécurité, le rapport de Microsoft recommande aux acheteurs en ligne d'éviter les achats impulsifs, de cliquer sur des publicités non vérifiées et de se fier aux « preuves » de produits sur les réseaux sociaux.

Pour les demandeurs d'emploi, il est essentiel de vérifier les informations d'identification et les entreprises, et de se méfier des demandes de paiements anticipés ou d'informations personnelles.

« Si une interview vidéo semble artificielle, avec des retards de synchronisation labiale, un discours robotique ou des expressions faciales étranges, il pourrait s'agir d'une technologie de deepfake », indique le rapport.

Des publicités montrant de fausses célébrités générées par l'IA ont circulé sur les réseaux sociaux.

Daswin de Silva, professeur d'analyse et d'IA à l'Université La Trobe, a déclaré que des éléments comme l'authentification multifacteur étaient également essentiels à la sécurité.

« On oublie souvent la formation nécessaire pour être présent numériquement », a-t-il déclaré.

« Nous ne prenons pas vraiment en compte la nécessité d'une formation initiale, mais aussi celle des formations ultérieures pour rester à jour, par exemple en sachant que le phishing en tant que service est une possibilité. »

« La culture numérique est cruciale. »

« Il y a un décalage car l'IA que nous utilisons sur les réseaux sociaux et sur nos smartphones est plutôt performante, et il est très facile d'y accéder sans tenir compte des risques de sécurité. »

« Nous considérons la sécurité comme une considération secondaire. » Lorsqu'on utilise un mot de passe, on ne pense jamais d'emblée au risque d'être piraté. On n'y pense presque jamais.

« C'est toujours une question de commodité. »

Il a expliqué qu'une armée de personnes cherchait activement à débrider les modèles d'IA, ajoutant que l'« écosystème » de l'IA était aussi performant qu'on pouvait l'espérer.

« Les grands modèles comportent de nombreuses protections, et les entreprises technologiques adoptent une approche très responsable », a-t-il déclaré.

« On trouve généralement sur les réseaux sociaux des messages comme "J'ai piraté ChatGPT et il me dit comment assembler une sorte d'armement".

« Dès que cela fuite… l'entreprise publie le correctif qui y remédie. »

La « course aux armements » de l'IA entre les escrocs, les victimes et les entreprises

Le professeur Warren a indiqué que de nombreux outils d'IA avaient commencé à développer des « algorithmes éthiques » pour empêcher la génération de contenus frauduleux.

« Mais [les escrocs] peuvent toujours utiliser le système d'IA pour dire : "Écrivez-moi une lettre commerciale à un employé potentiel pour qu'il travaille pour moi" », a-t-il déclaré.

Des images, des vidéos et des fichiers audio générés artificiellement ont inondé Internet ces dernières années. Répondez à notre quiz pour savoir si vous savez distinguer le vrai du faux.

« Même si beaucoup de ces sites d'IA ont introduit des algorithmes éthiques pour lutter contre les comportements inappropriés, vous pouvez facilement les contourner en modifiant simplement ce que vous lui demandez de faire.

« Et il ne détectera pas qu'il s'agit d'une arnaque. Il pense simplement générer un e-mail professionnel, par exemple.

Le ministère australien de l'Industrie, des Sciences et des Ressources a publié huit « principes éthiques » pour les outils d'intelligence artificielle.

Parmi eux, la nécessité de renforcer la sécurité afin d'atténuer les « risques potentiels d'abus » et la nécessité pour les systèmes d'IA de ne pas se livrer à des « tromperies » ou à des « manipulations déloyales ».

Le professeur Warren a déclaré que ce problème appelait des « solutions techniques ».

« Je pense qu'on assiste à une véritable course aux armements dans le domaine des technologies d'escroquerie », a-t-il déclaré.

« Les grandes entreprises tentent de développer des solutions, tandis que les escrocs cherchent ensuite des solutions de contournement. Je pense donc que ce problème va perdurer.

« Ce qui me surprend vraiment, c'est le volume considérable d'attaques, et le fait que Microsoft bloque 1,6 million de tentatives de bots par heure.

« Mais ce que l'on va voir à l'avenir, c'est que ce nombre va augmenter de manière exponentielle. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd