Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4587

Incidents associés

Incident 9063 Rapports
Alleged AI-Powered Call Center Breach Exposes Over 10 Million Conversations in the Middle East

Loading...
Les cybercriminels ciblent les agents IA et les plateformes conversationnelles : risques émergents pour les entreprises et les consommateurs
resecurity.com · 2024

Introduction Resecurity a identifié une augmentation des campagnes malveillantes ciblant les agents d'IA et les plateformes d'IA conversationnelle qui exploitent les chatbots pour fournir des interactions automatisées et de type humain aux consommateurs. Les plateformes d'IA conversationnelle sont conçues pour faciliter les interactions naturelles entre les humains et les machines à l'aide de technologies telles que le traitement du langage naturel (NLP) et l'apprentissage automatique (ML). Ces plateformes permettent à des applications telles que les chatbots et les agents virtuels d'engager des conversations significatives, ce qui en fait des outils précieux dans divers secteurs. Les chatbots sont un élément fondamental des plateformes d'IA conversationnelle, conçues pour simuler des conversations humaines et améliorer l'expérience utilisateur. Ces composants pourraient être interprétés comme une sous-classe d'agents d'IA chargés d'orchestrer le flux de communication entre l'utilisateur final (consommateur) et l'IA. Les institutions financières (IF) mettent largement en œuvre ces technologies pour accélérer le support client et les flux de travail internes, ce qui peut également déclencher des risques de conformité et de chaîne d'approvisionnement. Bon nombre de ces services ne sont pas totalement transparents en ce qui concerne la protection et la conservation des données en place, fonctionnant comme une « boîte noire », les risques associés ne sont pas immédiatement visibles. Cela peut expliquer pourquoi les grandes entreprises technologiques restreignent l’accès des employés à des outils d’IA similaires, en particulier ceux fournis par des sources externes, en raison des craintes que ces services puissent tirer parti des données potentiellement exclusives qui leur sont soumises. Les principaux innovateurs en matière d’IA, dont OpenAI, Microsoft, Google et Amazon Web Services (AWS), encouragent fortement l’utilisation d’agents d’IA afin que les entreprises puissent utiliser l’IA pour faire leur travail et augmenter leur productivité et leurs opportunités de revenus. De nombreux produits existants sont également sur le point d’améliorer leurs fonctionnalités d’IA générative avec une automatisation accrue, ce qui peut mettre en évidence le rôle croissant des plateformes conversationnelles et des chatbots d’IA. Contrairement aux chatbots traditionnels, les chatbots d’IA conversationnels peuvent offrir des conseils et des recommandations personnalisés en fonction des interactions des utilisateurs. Cette capacité améliore l’expérience utilisateur en fournissant des réponses personnalisées qui répondent aux besoins individuels. Les robots peuvent collecter des données précieuses à partir des interactions des utilisateurs, qui peuvent être analysées pour obtenir des informations sur les préférences et les comportements des clients. Français Ces informations peuvent éclairer les stratégies commerciales et améliorer les offres de services. En même temps, elles créent un risque important en matière de protection des données, car les données collectées auprès des utilisateurs peuvent révéler des informations et un contexte sensibles en raison d'interactions personnalisées. Un autre aspect important est de savoir si les entrées utilisateur collectées seront conservées pour une formation ultérieure et si ces données seront ultérieurement nettoyées afin de minimiser la divulgation d'informations personnelles identifiables (PII) et d'autres données susceptibles d'affecter la confidentialité de l'utilisateur en cas de violation. ### Comprendre l'IA conversationnelle et l'IA générative L'IA des communications, souvent appelée IA conversationnelle, est principalement conçue pour faciliter les interactions bidirectionnelles avec les utilisateurs. Elle se concentre sur la compréhension et le traitement du langage humain pour générer des réponses de type humain. Cette technologie est couramment utilisée dans les chatbots, les assistants virtuels et les applications de service client, où l'objectif est de fournir des interactions significatives et contextuellement pertinentes. D'autre part, l'IA générative est centrée sur la création de nouveau contenu basé sur des modèles appris à partir de données existantes. Cela comprend la génération de texte, d'images, de musique et d'autres formes de médias. L'IA générative ne se limite pas à la conversation ; Français il peut produire des œuvres originales de manière autonome lorsqu'on le lui demande, ce qui le rend adapté aux applications dans les domaines créatifs, la création de contenu, etc. Principales différences Objectif : - L'IA conversationnelle vise à engager les utilisateurs dans un dialogue et à fournir des réponses qui imitent la conversation humaine. \ - L'IA générative se concentre sur la production de nouveaux contenus, comme la rédaction d'articles, la création d'œuvres d'art ou la composition musicale. Fonctionnalité : - L'IA conversationnelle traite les entrées des utilisateurs et génère des réponses appropriées, en s'appuyant souvent sur des scripts prédéfinis ou des modèles de conversation appris. - L'IA générative analyse les données pour créer des résultats entièrement nouveaux, en exploitant des algorithmes complexes pour innover plutôt que simplement répondre. En résumé, bien que les deux technologies utilisent les principes de l'IA, l'IA conversationnelle concerne l'interaction et le dialogue, tandis que l'IA générative concerne la création de contenu et l'innovation. Les systèmes d'IA conversationnelle sont de plus en plus répandus dans divers secteurs et applications. Voici quelques exemples notables :** Assistants virtuels - Siri (Apple), Alexa (Amazon), Google Assistant (Google) - Ces assistants virtuels à commande vocale utilisent l'IA conversationnelle pour comprendre le langage naturel et répondre aux requêtes des utilisateurs. ** Chatbots alimentés par l'IA - Chatbots sur les sites de commerce électronique - Ces chatbots alimentés par l'IA aident les clients à obtenir des informations sur les produits, à suivre les commandes et à répondre à d'autres questions. - Chatbots d'applications de messagerie - Chatbots intégrés aux plateformes de messagerie comme Slack, Facebook Messenger et WhatsApp pour fournir une assistance et des informations client automatisées. ** Bots à commande vocale - Outils de dictée voix-texte - Systèmes d'IA conversationnelle capables de transcrire le langage parlé en texte, permettant une communication mains libres. \ - Appareils domestiques intelligents à commande vocale - Les exemples incluent Amazon Alexa, Google Nest et Apple HomePod, qui utilisent l'IA conversationnelle pour contrôler les fonctions de la maison intelligente. ** Applications d'entreprise - Agents de service client automatisés - Chatbots et agents virtuels alimentés par l'IA qui gèrent les demandes et tâches courantes des clients, telles que la facturation, la gestion des comptes et le dépannage. - Assistants d'intégration RH - Systèmes d'IA conversationnelle qui peuvent guider les nouveaux employés tout au long du processus d'intégration, répondre aux questions et fournir des informations. ** Applications de soins de santé - Assistants infirmiers virtuels - Systèmes d'IA conversationnelle qui peuvent interagir avec les patients, fournir des conseils médicaux et aider à la planification des rendez-vous et à la gestion des médicaments. Ces exemples montrent les diverses applications de l'IA conversationnelle, allant des assistants virtuels en contact avec les consommateurs aux systèmes d'automatisation et d'assistance au niveau de l'entreprise. À mesure que la technologie continue d'évoluer, nous pouvons nous attendre à voir encore plus de cas d'utilisation innovants pour l'IA conversationnelle à l'avenir. ### Risques émergents liés aux agents d'IA et à l'IA conversationnelle Dans une récente publication d'Avivah Litan, analyste vice-présidente distinguée chez Gartner, ont été mis en évidence les risques émergents et les menaces de sécurité introduits par les agents d'IA : - Exposition ou exfiltration de données\ Les risques peuvent survenir n'importe où dans la chaîne d'événements de l'agent. - Consommation de ressources système\ Les exécutions et interactions incontrôlées des agents, qu'elles soient bénignes ou malveillantes, peuvent conduire à des scénarios de déni de service ou de déni de portefeuille, surchargeant ainsi les ressources système. - Activités non autorisées ou malveillantes\ Les agents autonomes peuvent effectuer des actions involontaires, notamment le « détournement d'agent » par des processus malveillants ou des humains. - Erreurs de logique de codage\ Les erreurs de codage non autorisées, involontaires ou malveillantes commises par les agents d'IA peuvent entraîner des violations de données ou d'autres menaces. - Risque lié à la chaîne d'approvisionnement\ L'utilisation de bibliothèques ou de codes provenant de sites tiers peut introduire des programmes malveillants ciblant à la fois les environnements IA et non IA. - Abus de gestion des accès\ L'intégration des informations d'identification du développeur dans la logique d'un agent, en particulier dans le développement à faible code ou sans code, peut entraîner des risques importants en matière de gestion des accès. - Propagation de code malveillant\ Le traitement automatisé des agents et l'empoisonnement par génération augmentée de récupération (RAG) peuvent déclencher des actions malveillantes. Ces risques soulignent l'importance de concevoir des contrôles robustes pour atténuer l'exposition des données, la consommation de ressources et les activités non autorisées. L'IA conversationnelle, tout en offrant des avantages significatifs en termes d'interaction et d'automatisation des utilisateurs, présente également plusieurs risques qui doivent être gérés avec soin. Ces systèmes traitent souvent des informations utilisateur sensibles, ce qui soulève des inquiétudes quant aux violations de la confidentialité et à l'exposition des données. Par exemple, lors de l'interaction avec un système d'IA conversationnelle, l'utilisateur final peut demander des mises à jour sur la dernière confirmation de paiement, demander l'état de la livraison en partageant son adresse et fournir d'autres informations personnelles pour recevoir une sortie appropriée. Si ces informations sont compromises, cela pourrait entraîner une fuite de données importante. ### Activité sur le Dark Web L'une des catégories critiques de plateformes d'IA conversationnelle est le logiciel de centre d'appels basé sur l'IA et les suites d'expérience client. Ces solutions utilisent des chatbots spécialement conçus pour interagir avec les consommateurs en traitant leurs entrées et en générant des informations significatives. La mise en œuvre de solutions basées sur l'IA comme celles-ci est particulièrement importante dans les secteurs de la fintech, du commerce électronique et de l'administration en ligne, où le nombre de consommateurs finaux est substantiel et le volume d'informations à traiter rend l'interaction humaine manuelle presque impossible, ou du moins inefficace sur le plan commercial et pratique. Les modèles d'IA formés optimisent les retours d'information aux consommateurs et aident à répondre aux demandes ultérieures, réduisant ainsi les temps de réponse et les procédures à forte intensité humaine qui pourraient être traitées par l'IA. 8 octobre 2024 - Resecurity a identifié une publication sur le Dark Web liée à la monétisation de données volées provenant de l'une des principales solutions de centre d'appels cloud basées sur l'IA au Moyen-Orient. L'acteur malveillant a obtenu un accès non autorisé au tableau de bord de gestion de la plateforme, qui contient plus de 10 210 800 conversations entre des consommateurs, des opérateurs et des agents d'IA (bots). Les données volées pourraient être utilisées pour orchestrer des activités frauduleuses avancées et des campagnes d'ingénierie sociale, ainsi que d'autres tactiques cybercriminelles utilisant l'IA. L'incident a été détecté en temps opportun et atténué avec succès en alertant la partie concernée et en collaborant avec les organismes chargés de l'application de la loi. La conséquence malheureuse est que des acteurs malveillants ont volé une quantité massive d'informations, créant des risques pour la vie privée des consommateurs. Sur la base des renseignements humains disponibles (HUMINT), Resecurity a acquis des artefacts supplémentaires liés à l'incident auprès de l'acteur : \ L'un des impacts significatifs de l'activité malveillante identifiée - les communications piratées entre les agents d'IA et les consommateurs ont révélé des informations personnelles identifiables (PII), y compris des documents d'identité nationale et d'autres détails sensibles fournis pour répondre à des demandes spécifiques. L'adversaire pourrait appliquer des techniques d'exploration et d'extraction de données pour acquérir des enregistrements intéressants et les utiliser dans des scénarios de phishing avancés et à d'autres fins de cyberoffensive. ### Confiance dans la plateforme d'IA : précurseur d'une fuite de données À la suite de la compromission, les adversaires pourraient accéder à des sessions clients spécifiques et voler des données et acquérir des connaissances sur le contexte de l'interaction avec l'agent d'IA, ce qui pourrait ultérieurement conduire à un détournement. Ce vecteur peut être particulièrement efficace dans les campagnes frauduleuses et d'ingénierie sociale lorsque l'adversaire se concentre sur l'acquisition d'informations de paiement auprès de la victime en utilisant un prétexte de vérification KYC ou d'assistance technique d'une institution financière ou d'un réseau de paiement spécifique. De nombreuses plateformes d'IA conversationnelles permettent aux utilisateurs de basculer entre un opérateur assisté par l'IA et un humain - le mauvais acteur pourrait intercepter la session et contrôler davantage le dialogue. En exploitant la confiance des utilisateurs, les mauvais acteurs pourraient demander aux victimes de fournir des informations sensibles ou d'organiser certaines actions (par exemple, confirmer un OTP) qui pourraient être utilisées dans des stratagèmes frauduleux. Resecurity prévoit une variété de stratagèmes d'ingénierie sociale qui pourraient être orchestrés en abusant et en accédant à des plateformes d'IA conversationnelles de confiance. La victime finale (le consommateur) restera complètement inconsciente si un adversaire intercepte la session et continuera d'interagir avec l'agent d'IA, pensant que la session est sécurisée et que la suite de l'action est légitime. L'adversaire peut exploiter la confiance de la victime dans la plateforme d'IA et obtenir des informations sensibles, qui pourraient ensuite être utilisées pour la fraude de paiement et le vol d'identité. Le problème des informations personnelles identifiables conservées peut être observé dans les communications piratées trouvées par un adversaire potentiel dans les données disponibles de la plateforme d'IA conversationnelle et leurs modèles. Par exemple, selon l'une des études de cas publiées par le Centre australien de cybersécurité de la Direction des signaux australiens (ACSC de l'ASD) en collaboration avec des partenaires internationaux, les systèmes d'IA hébergés par des tiers nécessitent une évaluation complète des risques. En novembre 2023, une équipe de chercheurs a publié les résultats de leurs tentatives d'extraction de données de formation mémorisées à partir de modèles de langage d'IA. L'une des applications expérimentées par les chercheurs était ChatGPT. Français Dans le cas de ChatGPT, les chercheurs ont découvert que le fait d'inciter le modèle à répéter un mot indéfiniment conduisait le modèle à divulguer des données d'entraînement à un rythme bien plus élevé que lorsqu'il se comportait normalement. Les données d'entraînement extraites comprenaient des informations personnelles identifiables (PII). ### Systèmes d'IA hébergés par des tiers : un risque majeur pour la chaîne d'approvisionnement Outre le problème des informations personnelles identifiables (PII) conservées stockées dans les communications entre l'agent d'IA et les utilisateurs finaux, les acteurs malveillants ont également pu cibler les jetons d'accès, que les entreprises pouvaient utiliser pour la mise en œuvre du service avec l'API de services et d'applications externes : La manipulation des jetons peut conduire à l'injection de données malveillantes dans les canaux d'intégration pris en charge et avoir un impact négatif sur les consommateurs finaux des plateformes conversationnelles d'IA. Français Les résultats des agents d'IA pourraient être intégrés à diverses plateformes, et des bots pourraient être ajoutés à d'autres applications comme Discord, WhatsApp, Slack et Zapier. En raison de la pénétration importante des systèmes d'IA externes dans l'infrastructure de l'entreprise et du traitement de volumes massifs de données, leur mise en œuvre sans évaluation des risques appropriée doit être considérée comme un risque émergent de cybersécurité de la chaîne d'approvisionnement informatique. Selon Gartner, les outils d'IA tiers présentent des risques pour la confidentialité des données. Lorsque votre organisation intègre des modèles et des outils d'IA de fournisseurs tiers, vous absorbez également les grands ensembles de données utilisés pour former ces modèles d'IA. Vos utilisateurs pourraient accéder à des données confidentielles dans les modèles d'IA d'autres personnes, ce qui pourrait créer des conséquences réglementaires, commerciales et réputationnelles pour votre organisation. ### Spectre d'attaques contre les systèmes compatibles avec l'IA Le spectre des tactiques et techniques adverses contre les systèmes compatibles avec l'IA sur la base d'observations d'attaques réelles est défini dans la Matrice MITRE ATLAS. Il fournit un cadre pour identifier et traiter les vulnérabilités des systèmes d’IA, ce qui peut aider à prévenir les attaques et à protéger les données sensibles, et permet aux chercheurs de naviguer dans le paysage des menaces pesant sur les systèmes d’intelligence artificielle. À l'aide de la matrice MITRE ATLAS, Resecurity a mappé l'activité malveillante observée aux principaux TTP : - AML.T0012\ Comptes valides - AML.T0049\ Exploiter une application publique - AML.T0052\ Phishing - AML.T0055\ Informations d'identification non sécurisées - AML.T0007\ Découverte d'artefacts ML - AML.T0035\ Collecte d'artefacts ML - AML.T0043\ Création de données contradictoires - AML.T0025\ Exfiltration via des moyens cybernétiques - AML.T0024\ Exfiltration via l'API d'interface ML - AML.T0048\ Dommages externes (impact financier) ### Mesures d'atténuation Resecurity souligne l'importance d'un programme complet de gestion de la confiance, des risques et de la sécurité de l'IA (TRiSM) pour garantir de manière proactive que les systèmes d'IA sont conformes, équitables, fiables et protègent la confidentialité des données. La loi sur l'IA de l'UE et d'autres cadres réglementaires en Amérique du Nord, en Chine et en Inde établissent déjà des réglementations pour gérer les risques des applications d'IA. Par exemple, les récentes directives de la PDPC sur l'IA à Singapour encouragent déjà les entreprises à être plus transparentes dans la recherche du consentement pour l'utilisation des données personnelles par le biais de divulgations et de notifications. Les entreprises doivent s'assurer que les systèmes d'IA sont dignes de confiance, offrant ainsi aux consommateurs une confiance dans la manière dont leurs données personnelles sont utilisées. Selon les Principes pour des technologies d’IA générative responsables, fiables et respectueuses de la vie privée publiés par le Commissariat à la protection de la vie privée du Canada et d’autres organismes de réglementation du secteur, il est essentiel de mener des évaluations, telles que des évaluations des facteurs relatifs à la vie privée (EFVP), pour identifier et atténuer les impacts potentiels ou connus qu’un système d’IA générative (ou son utilisation proposée, le cas échéant) peut avoir sur la vie privée. Français Selon les meilleures pratiques pour le déploiement de systèmes d'IA sécurisés et résilients publiées par l'Agence de sécurité nationale (NSA), les experts recommandent d'adopter un état d'esprit Zero-Trust (ZT), qui suppose qu'une violation est inévitable ou a déjà eu lieu. Compte tenu de l'activité malveillante observée impliquant la compromission des plateformes d'IA conversationnelles et de leur impact significatif sur la confidentialité des clients, Resecurity peut souligner l'importance des communications sécurisées entre les agents d'IA et les consommateurs finaux. Cela comprend la minimisation de la conservation des informations personnellement identifiables (PII) et l'adoption d'une approche proactive de la cybersécurité de la chaîne d'approvisionnement dans le contexte des solutions d'IA hébergées par des tiers. ### Importance Les plateformes d'IA conversationnelles sont devenues un élément essentiel de la chaîne d'approvisionnement informatique moderne pour les grandes entreprises et les agences gouvernementales. Leur protection nécessitera un équilibre entre les mesures de cybersécurité traditionnelles propres au SaaS (Software-as-a-Service) et celles spécialisées et adaptées aux spécificités de l'IA. À un moment donné, les plateformes d'IA conversationnelles commenceront à remplacer les canaux de communication traditionnels. Au lieu de la messagerie électronique « à l'ancienne », ces plateformes permettent une interaction via des agents d'IA qui fournissent des réponses rapides et fournissent une navigation à plusieurs niveaux entre les services d'intérêt en temps quasi réel. L'évolution de la technologie a également conduit à des ajustements de tactiques de la part des adversaires cherchant à exploiter les dernières tendances et dynamiques du marché mondial des TIC à leur propre avantage. Resecurity a détecté un intérêt notable de la part de la communauté des cybercriminels et des acteurs étatiques pour les plateformes d'IA conversationnelles - en raison d'un nombre considérable de consommateurs et des volumes massifs d'informations traités lors des interactions et des sessions personnalisées prises en charge par l'IA. Les cybercriminels cibleront les plateformes d'IA conversationnelles en raison de l'apparition de nouvelles offres orientées vers le consommateur. Par exemple, cette année, la Chine a lancé le prototype d'un hôpital IA pour présenter une approche innovante des soins de santé, dans laquelle des assistants infirmiers et des médecins virtuels interagiront avec les patients. De telles innovations peuvent créer des risques importants pour la vie privée des patients à long terme, car l'IA conversationnelle peut transmettre et traiter des informations sensibles sur les données de santé. L'IA conversationnelle révolutionne déjà le secteur bancaire et de la fintech en automatisant le support client, en fournissant des conseils financiers personnalisés et en améliorant l'efficacité transactionnelle, la satisfaction client et l'efficacité opérationnelle. Ces exemples prouvent la diversité des applications de l'IA conversationnelle, allant des assistants virtuels en contact avec le consommateur aux systèmes d'automatisation et d'assistance au niveau de l'entreprise. À mesure que la technologie continue d'évoluer, nous pouvons nous attendre à voir encore plus de cas d'utilisation créatifs de l'IA conversationnelle à l'avenir, et de nouvelles menaces de cybersécurité ciblant ces technologies et les utilisateurs finaux. ### Références - Atténuer les risques émergents et les menaces de sécurité provenant des agents d'IA\ https://securitymea.com/2024/09/10/mitigate-emerging-risks-and-security-threats-from-ai-agents/ - Aborder la confiance, le risque et la sécurité dans les modèles d'IA\ https://www.gartner.com/en/articles/what-it-takes-to-make-ai-safe-and-effective - Principes pour des technologies d'IA génératives responsables, dignes de confiance et respectueuses de la vie privée\ https://www.priv.gc.ca/en/privacy-topics/technology/artificial-intelligence/gd_principles_ai/- S'engager avec l'intelligence artificielle (IA)\ https://media.defense.gov/2024/Jan/23/2003380135/-1/-1/0/CSI-ENGAGING-WITH-ARTIFICIAL-INTELLIGENCE.P...

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322