Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2795

Loading...
Escroqueries, deepfake porn et romance bots - L'IA avancée est excitante, mais incroyablement dangereuse entre les mains des cybercriminels
dailymaverick.co.za · 2023

L'IA générative l'industrie vaudra environ [A$22 000 milliards d'ici 2030](https:// www.csiro.au/en/research/technology-space/ai/Artificial-Intelligence-Roadmap), selon l'Organisation de recherche scientifique et industrielle du Commonwealth (Le Caire). Ces systèmes, dont ChatGPT est actuellement le plus connu, peuvent rédiger des essais et coder , générer de la musique et des illustrations, et avoir des conversations entières. Mais que se passe-t-il lorsqu'ils sont tournés vers des utilisations illégales ?

La semaine dernière, la communauté du streaming a été secouée par un titre qui relie retour à l'utilisation abusive de l'IA générative. Le streamer Twitch populaire Atrioc a publié une vidéo d'excuses, les larmes aux yeux, après avoir été surpris en train de regarder de la pornographie avec les visages superposés d'autres femmes streamers.

La [technologie "deepfake"](https://www.dailymaverick.co.za/article/2023-02-15-deepfakes-faces-created-by-ai-now-look-more-real-than-genuine- photos/) nécessaires pour Photoshoper la tête d'une célébrité sur un corps d'acteur porno existe depuis un certain temps, mais les progrès récents ont rendu la détection beaucoup plus difficile . Et c'est la pointe de l'iceberg. Entre de mauvaises mains, l'IA générative pourrait faire des dégâts incalculables. Nous avons beaucoup à perdre si les lois et les réglementations ne suivent pas.

Le mois dernier, l'application d'IA générative Lensa a été critiquée pour avoir permis à son système de créer des images entièrement nues et hypersexualisées à partir des portraits des utilisateurs. De manière controversée, il a également blanchi la peau des femmes de couleur et rendu leurs traits plus européens.

Le contrecoup a été rapide. Mais ce qui est relativement négligé, c'est le vaste potentiel d'utilisation de l'IA générative artistique dans les escroqueries. À l'autre extrémité du spectre, certains rapports indiquent que ces outils sont capables de fausses empreintes digitales et numérisations faciales (le méthode que la plupart d'entre nous utilisent pour verrouiller nos téléphones).

Les criminels trouvent rapidement de nouvelles façons d'utiliser l'IA générative pour améliorer les fraudes qu'ils commettent déjà. L'attrait de l'IA générative dans les escroqueries vient de sa capacité à trouver des modèles dans [de grandes quantités de données](https://www.abc.net.au/news/2023-01-29/artificial-intelligence-ai-videos- images-voix-musique-2023/101874146). La cybersécurité a vu une augmentation des "bad bots" : des programmes automatisés malveillants qui imitent le comportement humain [pour commettre des crimes](https://www.forbes.com/sites/forbestechcouncil/2016/08/31/bots-and-cybersecurity- quel est le risque/). L'IA générative les rendra encore plus sophistiqués et difficiles à détecter.

Avez-vous déjà reçu [un texte frauduleux](https://theconversation.com/we-have-filed-a-case-under-your-name-beware-of-tax-scams-theyll-be-everywhere-this-eofy- 162171) du "bureau des impôts" affirmant que vous aviez un remboursement en attente ? Ou peut-être avez-vous reçu un appel affirmant qu'un mandat était pour votre arrestation ? Dans de telles escroqueries, l'IA générative pourrait être utilisée pour améliorer la qualité des textes ou e-mails, ce qui en fait beaucoup plus crédible. Par exemple, ces dernières années, nous avons vu des systèmes d'IA être [utilisés pour](https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime- case-11567157402) usurper l'identité de personnalités importantes lors d'attaques d'usurpation de voix.

Ensuite, il y a escroqueries amoureuses, où les criminels se font passer pour des intérêts romantiques et demandent de l'argent à leurs cibles pour les aider à sortir de la détresse financière. Ces escroqueries sont déjà répandues et souvent lucratives. La formation de l'IA sur les messages réels entre partenaires intimes pourrait aider à créer un chatbot frauduleux qui ne se distingue pas [d'un humain](https://thediplomat.com/2021/01/chatbot-gone-awry-starts-conversations-about-ai-ethics- en-corée-du-sud/).

L'IA générative pourrait également permettre aux cybercriminels de cibler plus sélectivement les personnes vulnérables. Par exemple, former un système sur les informations volées à de grandes entreprises, comme lors des piratages d'Optus ou de Medibank l'année dernière, [pourrait aider les criminels à cibler](https://gilescrouch.medium.com/generative-ai-risks-and-dangers -f70994c74f5a) les personnes âgées, les personnes handicapées ou les personnes en difficulté financière. De plus, ces systèmes peuvent être utilisés pour [améliorer le code informatique](https://www.zdnet.com/article/chatgpt-can-write-code-now-researchers-say-its-good-at-fixing-bugs- too/), qui, selon certains experts en cybersécurité, rendra les logiciels malveillants et les virus plus faciles à créer et plus difficiles [à détecter pour les logiciels antivirus](https://www.techtarget.com/searchenterpriseai/news/252529600/ChatGPT-could-boost-phishing -arnaques).

La technologie est là, et nous ne sommes pas préparés

Les États-Unis ont mis en place une National Artificial Intelligence Initiative depuis 2021. Et depuis 2019, elle est [illégale en Californie](https://leginfo.legislature.ca .gov/faces/billTextClient.xhtml?bill_id=201720180SB1001) pour qu'un bot interagisse avec les utilisateurs à des fins commerciales ou électorales sans révéler qu'il n'est pas humain. L'Union européenne est également en bonne voie pour promulguer la première loi sur l'IA. La loi sur l'IA interdit certains types de programmes d'IA présentant un "risque inacceptable" - tels que ceux utilisés par le [système de crédit social] chinois (https://www.abc.net.au/news/2018-09-18/china-social -credit-a-model-citizen-in-a-digital-dictatorship/10200278) – et impose des restrictions obligatoires sur les systèmes « à haut risque ».

cela me semble tout à fait correct. 🎯 pic.twitter.com/hNXEDdN0Yn

— Kareem Carr | Scientifique des données (@kareem_carr) 29 janvier 2023

Bien que demander à ChatGPT d'enfreindre la loi entraîne des avertissements qui " planifier ou commettre un crime grave peut entraîner de graves conséquences juridiques", le fait est qu'il n'y a aucune obligation pour ces systèmes d'avoir un "code moral" [programmé](https://www.theregister.com/2023/01 /20/chatgpt_morally_corrupting/).

Il n'y a peut-être pas de limite à ce qu'on peut leur demander de faire, et les criminels trouveront probablement des solutions de contournement pour toute règle visant à empêcher leur utilisation illégale. Les gouvernements doivent travailler en étroite collaboration avec le secteur de la cybersécurité pour réglementer l'IA générative sans étouffer l'innovation, par exemple en [exigeant des considérations éthiques](https://www.lexisnexis.com.au/en/insights-and-analysis/practice-intelligence/ 2018/the-ethics-of-ai-in-the-legal-industry) pour les programmes d'IA. (…)

Pouvez-vous repérer une arnaque?

Alors que les criminels ajoutent des outils d'IA génératifs à leur arsenal, la détection des escroqueries deviendra de plus en plus délicate. Les conseils classiques s'appliqueront toujours, mais au-delà de ceux-ci, nous Nous apprendrons beaucoup en évaluant les lacunes de ces outils.

L'IA générative est mauvaise pour le raisonnement critique et la transmission d'émotions. Il peut même être amené à donner de mauvaises réponses. Savoir quand et pourquoi cela se produit pourrait nous aider à développer des méthodes efficaces pour attraper les cybercriminels utilisant l'IA à des fins d'extorsion.

Des outils sont également en cours de développement pour détecter l'IA les sorties d'outils tels que ChatGPT. Ceux-ci pourraient contribuer grandement à prévenir la cybercriminalité basée sur l'IA s'ils s'avèrent efficaces.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd