Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2749

Incidents associés

Incident 44325 Rapports
ChatGPT Abused to Develop Malicious Softwares

Loading...
C'est effrayant d'utiliser ChatGPT pour écrire des e-mails de phishing
cnet.com · 2023

Pour mémoire, ChatGPT ne m'a pas écrit d'e-mail de phishing lorsque je l'ai demandé. En fait, cela m'a donné une conférence très sévère sur les raisons pour lesquelles le phishing est mauvais.

Il a qualifié l'hameçonnage d'"activité malveillante et illégale qui vise à tromper les individus afin qu'ils fournissent des informations sensibles telles que des mots de passe, des numéros de carte de crédit et des informations personnelles", ajoutant qu'en tant que modèle de langage d'IA, il est programmé pour "éviter de s'engager dans des activités susceptibles de nuire personnes ou de causer un préjudice au public. »

Cela dit, l'outil d'intelligence artificielle gratuit qui a pris d'assaut le monde n'a eu aucun problème à rédiger une note de support technique très convaincante adressée à mon éditeur lui demandant de télécharger et d'installer immédiatement une mise à jour incluse du système d'exploitation de son ordinateur. (Je ne l'ai pas envoyé, de peur d'invoquer les foudres du service informatique de mon entreprise.)

Mais l'exercice était une puissante illustration de la façon dont ChatGPT - et l'intelligence artificielle en général - pouvait être une aubaine pour les escrocs et les pirates à l'étranger dont les tentatives de phishing avaient peut-être déjà été révélées par leurs erreurs grammaticales ou leur anglais approximatif. Les experts disent que ces e-mails générés par l'IA sont également plus susceptibles de passer les filtres de messagerie des logiciels de sécurité.

Les dangers pour la sécurité vont bien au-delà du phishing. Selon des chercheurs de la société de cybersécurité Check Point, les cybercriminels essaient d'utiliser ChatGPT pour écrire des logiciels malveillants, tandis que d'autres les experts disent que le code non malveillant écrit avec lui pourrait être de qualité inférieure à celle du code créé par un être humain, ce qui le rend susceptible d'être exploité.

Mais, disent les experts, ne blâmez pas l'IA.

"Ce n'est ni bon ni mauvais", a déclaré Randy Lariar, directeur de la pratique des mégadonnées, de l'IA et de l'analyse pour la société de cybersécurité Optiv. "C'est juste un outil qui permet aux bons et aux méchants de faire plus facilement et à moindre coût ce qu'ils font déjà."

Une course aux armements en IA

Alors que les entreprises de cybersécurité vantent depuis longtemps l'IA et l'apprentissage automatique comme un moyen révolutionnaire de renforcer les défenses en ligne automatisées et d'aider à combler les lacunes de la main-d'œuvre de l'industrie, la disponibilité accrue de ce type de technologie grâce à des outils tels que ChatGPT ne fera que faciliter la tâche des criminels. lancer plus de cyberattaques.

Certains experts s'inquiètent également des implications possibles sur la confidentialité des données, tant pour les entreprises que pour le consommateur moyen. Alors que les données avec lesquelles l'IA de ChatGPT a été formée sont généralement considérées comme publiques et disponibles en ligne, elles sont sans doute beaucoup plus accessibles qu'auparavant.

De plus, les utilisateurs de la technologie devront faire attention aux informations qu'ils alimentent l'IA, car une fois qu'ils le feront, elles feront partie de la base de données massive de ChatGPT, et ils n'auront que peu ou pas de contrôle sur les personnes avec lesquelles elles sont partagées ou comment elles sont partagées. utilisé ensuite.

OpenAI, la société derrière ChatGPT, n'a pas répondu à un e-mail demandant un commentaire.

Bien qu'il existe des garde-corps intégrés pour empêcher les cybercriminels d'utiliser le ChatGPT à des fins néfastes, ils sont loin d'être infaillibles. Une demande d'écrire une lettre demandant une aide financière pour fuir l'Ukraine a été signalée comme une arnaque et refusée, tout comme une demande de rendez-vous romantique. Mais j'ai pu utiliser ChatGPT pour écrire une fausse lettre à mon éditeur l'informant qu'il avait gagné le jackpot de la loterie de l'État de New York.

Les experts avertissent que ChatGPT n'est pas toujours précis, et même Sam Altman, PDG d'OpenAI, qui a créé le chatbot, a déclaré qu'il ne devrait pas être utilisé pour "quelque chose d'important en ce moment". Mais les cybercriminels ne craignent généralement pas que leur code soit parfait à 100 %, donc les problèmes de précision ne sont pas un problème pour eux, selon Jose Lopez, principal scientifique des données et ingénieur en apprentissage automatique pour la société de sécurité des e-mails Mimecast,

Ce qui les préoccupe, c'est la rapidité et la productivité.

"Si vous êtes un codeur moyen, cela ne vous transformera pas en un super hacker du jour au lendemain", a déclaré Lopez. "Son potentiel principal est en tant qu'amplificateur."

Cette amplification pourrait signifier que les cybercriminels utilisent la technologie pour mettre en place d'innombrables chats en ligne avec des victimes sans méfiance, cherchant à les attirer dans [escroqueries romantiques] (https://www.cnet.com/tech/services-and-software/valentines-day- romance-scams-dont-fall-for-them/), a-t-il dit. Ces types d'escroqueries ne sont pas rares, mais ils ont traditionnellement exigé beaucoup de travail et d'attention de la part des escrocs. Les chatbots alimentés par l'IA pourraient changer cela.

Soyez prudent avec vos données

Bien que les préoccupations en matière de confidentialité des données concernant l'IA ne soient pas nouvelles, le débat sur l'utilisation de la technologie de l'IA dans [la technologie de reconnaissance faciale](https://www.cnet.com/news/privacy/clearview-ai-to-stop-selling- facial-recognition-database-to-private-companies/) fait rage depuis des années – la popularité explosive de ChatGPT a renouvelé le besoin de rappeler aux gens les pièges de données personnelles dans lesquels ils peuvent tomber.

Les inquiétudes concernant les modèles de langage comme ChatGPT ne sont peut-être pas aussi évidentes, mais elles sont tout aussi importantes, a déclaré John Gilmore, responsable de la recherche chez Abine, qui possède DeleteMe, un service qui aide les gens à supprimer des informations des bases de données.

Gilmore a noté que les utilisateurs n'ont aucun droit en ce qui concerne ce que ChatGPT fait avec les données qu'il collecte auprès d'eux ou avec qui il les partage. Il s'est demandé comment ChatGPT pourrait jamais être conforme aux lois sur la confidentialité des données telles que le règlement général sur la protection des données de l'UE, mieux connu sous le nom de [RGPD](https://www.cnet.com/news/privacy/what-gdpr-means-for-facebook -google-the-eu-us-and-you/), étant donné le manque d'outils de transparence.

Alors que l'utilisation de l'IA s'étend à d'autres technologies où leur utilisation peut être moins évidente, Gilmore a déclaré qu'il appartiendrait aux consommateurs de garder le contrôle sur les données qu'ils transmettraient.

Les informations confidentielles ou exclusives, par exemple, ne doivent jamais être saisies dans des applications ou des sites d'IA, ce qui inclut les demandes d'aide concernant des éléments tels que les demandes d'emploi ou les formulaires juridiques.

"Bien qu'il puisse être tentant de recevoir des conseils basés sur l'IA pour un bénéfice à court terme, vous devez être conscient que dans le processus, vous donnez ce contenu à tout le monde", a déclaré Gilmore.

Lariar d'Optiv a déclaré qu'étant donné la nouveauté des modèles de langage d'IA, il reste encore beaucoup à décider en matière de légalité et de droits des consommateurs. Il a comparé les plates-formes d'IA basées sur le langage à l'essor des industries de la vidéo et de la musique en streaming, prédisant qu'il y aura une multitude de poursuites intentées avant que tout ne soit réglé.

En attendant, l'IA basée sur le langage ne va pas disparaître. Quant à savoir comment se protéger contre ceux qui l'utiliseraient pour des cybercrimes, Lariar a déclaré que comme tout ce qui concerne la sécurité, cela commence par les bases.

"C'est un signal d'alarme pour tous ceux qui n'investissent pas dans leurs programmes de sécurité comme ils le devraient", a-t-il déclaré. "La barrière à l'entrée devient de plus en plus basse pour être piratée et hameçonnée. L'IA va juste augmenter le volume."

Note de la rédaction : CNET utilise un moteur d'IA pour créer des explications sur les finances personnelles qui sont éditées et vérifiées par nos rédacteurs. Pour en savoir plus, consultez cet article.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd