Problème 2757

SINGAPOUR – Plusieurs experts en technologies de l'information (TI) avertissent que des chatbots sophistiqués tels que OpenAI [ChatGPT](https://www.todayonline.com/singapore/university-professors-singapore-keen-chatgpt-which-they-say-can -help-students-ask-better-questions-and-raise-critical-thinking-2102461) et Google's Bard pourraient bientôt être utilisés par des criminels pour [scam](https://www.todayonline.com/singapore/greed-careless -overconfidence-youths-scams-2103011), pirater et mener des attaques malveillantes.
Et ce n'est qu'"une question de temps" avant que Singapour ne fasse l'objet d'une telle attaque, a ajouté un expert.
Ces chatbots, qui utilisent de "grands modèles de langage" pour produire un contenu plus crédible, pourraient rendre les escroqueries plus difficiles à détecter car L'un des principaux signes d'escroquerie est depuis longtemps que tout texte impliqué est souvent mal écrit avec une mauvaise grammaire.
ChatGPT et Bard pourraient corriger les erreurs grammaticales et aplanir les formulations maladroites pour rendre les escroqueries plus convaincantes, même dans des langues autres que l'anglais.
Mercredi, en réponse aux questions d'AUJOURD'HUI, [la police de Singapour](https://www.todayonline.com/singapore/6-10-scam-victims-2022-aged-below-40-total-cases-surge-30- loss-hit-s660m-2102536) ont déclaré qu'ils surveillaient l'utilisation possible de ChatGPT par des criminels, notant que l'outil était "un développement relativement nouveau".
"Beaucoup de ces escrocs opèrent dans des pays où l'anglais n'est pas la première langue", a déclaré le Dr Edmund WJ Lee, professeur adjoint à la Wee Kim Wee School of Communication and Information.
"Ils pourraient simplement demander aux chatbots de réécrire leur contenu, et c'est certainement beaucoup plus simple et nécessite moins d'efforts que" googler "", a-t-il déclaré à TODAY.
Une cyberattaque assistée par ChatGPT probablement d'ici un an : étude
Une étude publiée plus tôt cette année par BlackBerry, une société de logiciels et de cybersécurité dont le siège est au Canada, a révélé que 51 % des 1 500 professionnels de l'informatique de plusieurs pays interrogés pensent qu'une cyberattaque réussie sera créditée à ChatGPT dans moins d'un an.
L'équipe de recherche et de renseignement sur les menaces de BlackBerry a identifié Singapour comme étant dans le top 10 des pays en termes de cyberattaques.
En seulement 90 jours entre le 1er septembre et le 30 novembre 2022, le logiciel de cybersécurité IA de l'entreprise a arrêté environ 10 300 cyberattaques basées sur des logiciels malveillants à Singapour, ce qui se traduit par environ 113 par jour ou près de cinq par heure.
C'était sur un total d'environ 1,75 million d'attaques de ce type dans le monde au cours de cette période.
Dans une interview accordée à TODAY, M. Jonathan Jackson, directeur de l'ingénierie de BlackBerry (Asie-Pacifique), a déclaré que ce n'était "qu'une question de temps" avant que Singapour ne subisse une cyberattaque utilisant Chat GPT.
"Bien qu'il n'y ait pas encore eu de cas signalés connus (de cyberattaques dues à ChatGPT) à Singapour... les forums clandestins populaires regorgent d'acteurs malveillants partageant des échantillons de code pour chiffrer des données, voler des informations et échapper à la détection, le tout en utilisant la capacité de ChatGPT. "
Les chatbots offrent de nombreuses possibilités aux escrocs et aux pirates
Un expert a cité un exemple de l'utilisation de ChatGPT dans une véritable arnaque.
"Il y a eu des rapports d'utilisation de ChatGPT pour générer des e-mails de phishing… il y a également eu des rapports dans des forums clandestins où certains attaquants ont créé un voleur de mot de passe en Python avec ChatGPT", a déclaré M. Stas Protassov, co-fondateur d'Acronis, une société de cybersécurité et de données. société de protection.
Cependant, en général, les experts ont déclaré que les outils d'IA sophistiqués tels que ChatGPT et Bard en sont encore à leurs débuts.
Cela signifie que les cybercriminels cherchent encore à les utiliser et que diverses techniques sournoises imprévues utilisant ces chatbots pourraient émerger dans les mois à venir.
- Phishing – Des chatbots d'IA sophistiqués peuvent être utilisés pour créer des messages de phishing très convaincants, c'est-à-dire des messages qui imitent des sources légitimes pour inciter les gens à révéler des informations sensibles, telles que les informations de connexion bancaires. Cela peut même être personnalisé, car ChatGPT peut générer du texte dans une grande variété de langues.
- Usurpation d'identité – Comme ChatGPT a été formé par de grandes quantités de données et de détails, il pourrait être utilisé pour usurper l'identité d'individus ou d'organisations spécifiques afin de convaincre les gens de tomber dans le piège d'escroqueries, telles que des demandes d'argent urgentes d'un ami perdu depuis longtemps. , ou une demande de mot de passe d'entreprise à votre patron.
- Fake news – Les modèles de langage de l'IA peuvent générer des informations trompeuses ou fausses pour manipuler l'opinion publique ou causer du tort. Par exemple, ChatGPT pourrait produire du contenu douteux ou même créer des sites entiers de fausses nouvelles en quelques minutes.
- Piratage – ChatGPT pourrait analyser le code source des cibles de piratage, telles que les sites Web, pour trouver des faiblesses à exploiter. Il pourrait également créer des scripts automatisés, tels que "forcer brutalement" diverses informations d'identification divulguées ou piratées, jusqu'à ce que l'un fonctionne.
Identification de la problématique du contenu de l'IA : projet de recherche
Un projet de recherche publié en janvier de cette année par des chercheurs de WithSecure, une société de cybersécurité basée en Finlande, a conclu que l'identification de contenu malveillant écrit par l'IA serait un problème.
Le projet a exploré comment les outils de génération de langage IA pouvaient être utilisés à mauvais escient et a testé ChatGPT sur une variété d'utilisations possibles, telles que la création de contenu de phishing et de faux articles d'actualité.
Les chercheurs ont mené des expériences qui ont prouvé que de "grands modèles de langage" tels que Chat GPT pouvaient être utilisés :
- Pour créer des fils de discussion adaptés aux attaques de phishing
- Pour "deepfake" ou imiter très efficacement le style d'écriture d'une personne
- Pour incorporer l'opinion dans le contenu écrit existant
- Pour créer de faux articles convaincants même si les informations pertinentes ne sont pas incluses dans les données d'entraînement du modèle
Ce qui peut être fait
Bien qu'il existe une forte possibilité que ChatGPT soit utilisé de diverses manières pour rendre les escroqueries et les piratages plus menaçants, il y a de bonnes nouvelles.
"On peut dire que nous en sommes encore au stade des premiers utilisateurs, même les cybercriminels sont encore en train de comprendre comment l'utiliser."
"Cela signifie qu'il y a une petite fenêtre d'opportunité pour les décideurs politiques, les développeurs technologiques… toutes les parties de la société pour aller de l'avant, pour s'assurer que les failles de ces chatbots ne peuvent pas être militarisées et mises en place dans la cybersécurité et les garanties au niveau politique", a déclaré le Dr Lee. .
Les experts ont également souligné qu'en général, les escroqueries reposaient principalement sur des individus prenant des décisions à la hâte, en raison de la panique ou de la peur de manquer quelque chose.
Par exemple, quelqu'un prétendant vous connaître, qui a besoin que vous lui envoyiez de l'argent en raison d'une urgence.
En tant que tels, ils ont conseillé aux gens de ralentir et de vérifier, de faire attention aux noms des en-têtes et des URL des e-mails et de vérifier les sources d'information.
De plus, des applications de cybersécurité comme ScamShield, qui bloque les messages et les appels frauduleux, peuvent être téléchargées.
L'authentification à deux facteurs, qui garantit que les utilisateurs ne peuvent accéder aux sites Web ou aux applications qu'après vérification à partir de deux facteurs, comme via un téléphone et un ordinateur portable, peut également être utilisée pour renforcer encore la sécurité.
Parmi les risques posés par ChatGPT, M. Protassov a déclaré : "D'un autre côté, OpenAI met à jour et ajuste constamment ChatGPT pour réduire la probabilité qu'il soit utilisé pour causer des dommages, à la fois dans les mondes physiques et virtuels."