Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2791

Loading...
Les escrocs amoureux en ligne peuvent avoir un nouvel ailier - l'intelligence artificielle
cbc.ca · 2023

La voix que vous entendez à l'autre bout de votre appel téléphonique n'est peut-être pas celle que vous pensez être, la personne à qui vous envoyez un SMS peut être un bot, et le visage sur une photo ou une vidéo sur votre application de rencontres préférée peut même ne pas l'être. exister.

Les progrès technologiques de l'intelligence artificielle créent le potentiel d'alimenter les escroqueries amoureuses, a déclaré Jeff Clune, professeur agrégé d'informatique à l'Université de la Colombie-Britannique.

Les escrocs ont désormais "plus d'outils dans leur boîte à outils pour tromper les gens, en particulier les personnes qui ne sont pas au courant des récentes avancées technologiques", a déclaré Clune dans une interview.

Ces progrès comprennent simulateurs de voix, [générateurs de visage](https://www.cbc.ca/radio/spark/ spark-428-1.5032258/new-ai-makes-it-harder-to-detect-what-s-real-online-1.5032311) et [deepfakes](https://www.cbc.ca/arts/commotion-more -advanced-ai-more-deepfake-problems-1.6739590) - dans lequel une image ou une vidéo existante est utilisée pour créer des séquences vidéo fausses mais crédibles. Les robots de discussion, comme ChatGPT, constituent un autre ensemble d'avancées, qui génèrent des réponses textuelles humaines sur toutes sortes de sites en ligne. plates-formes.

Le Centre antifraude du Canada a signalé que les escroqueries amoureuses ont monté en flèche pendant le changement massif en ligne causée par la pandémie de COVID-19. Il a déclaré que les stratagèmes de fraude impliquent souvent de convaincre une victime d'entrer dans une relation virtuelle en ligne afin de renforcer la confiance et l'affection. Les escrocs utilisent ensuite ce levier émotionnel pour demander de l'argent, de la crypto-monnaie, des cadeaux ou des investissements.

Le centre a averti que la Saint-Valentin offre une "opportunité aux fraudeurs de cibler les Canadiens à la recherche d'une relation". Ses dernières données disponibles ont révélé 1 928 signalements d'escroqueries amoureuses totalisant plus de 64,5 millions de dollars de pertes en 2021, soit un bond de près de 25% par rapport à l'année précédente.

Son évaluation des cybermenaces pour 2023-2024 a signalé une technologie de contrefaçon convaincante et l'intelligence artificielle, ou IA, des générateurs de texte comme des "acteurs de menace" potentiels.

"Alors que les deepfakes deviennent plus difficiles à distinguer du contenu authentique et que les outils pour créer des deepfakes convaincants deviennent plus largement disponibles, les acteurs des cybermenaces intégreront très probablement davantage la technologie dans leur utilisation des campagnes de [désinformation, désinformation et malinformation] , leur permettant pour augmenter la portée, l'échelle et la crédibilité des activités d'influence », indique l'analyse.

"Les générateurs de texte ont progressé à un point où le contenu qu'ils produisent est souvent presque indéchiffrable à partir de matériel légitime."

Clune a déclaré que les escroqueries utilisant des aspects de la technologie de l'IA nécessitent toujours une personne qui tire les ficelles, mais cela pourrait bientôt changer.

"Même si l'escroquerie est très répandue en ce moment, cela a toujours un coût, car un humain doit rester assis et passer son temps."

"Mais si vous pouvez demander à l'IA de le faire à un million de personnes par jour et de simplement vous asseoir et regarder l'argent arriver, c'est un endroit effrayant. Et c'est quelque chose qui est possible avec cette technologie", a-t-il déclaré.

La loi n'a pas suivi la technologie: expert

Suzie Dunn, professeure adjointe à la Schulich School of Law de l'Université Dalhousie, a déclaré que la loi n'avait pas suivi l'évolution de la technologie, laissant des "lacunes majeures" dans le cadre juridique.

"L'un des défis que nous avons en ce qui concerne les lois sur l'usurpation d'identité est que, en vertu du Code criminel du Canada, vous devez en fait vous faire passer pour une personne existante", a déclaré Dunn lors d'une entrevue.

Elle a déclaré qu'un logiciel qui permet aux gens de créer un individu inexistant, avec un faux accent, voix ou visage, pose des complications juridiques.

"Si vous utilisez les images de quelqu'un ou le nom de quelqu'un, cela peut être considéré comme une forme d'usurpation d'identité", a-t-elle déclaré.

"Mais avec ces nouvelles technologies … les types de dommages qui sont souvent censés être couverts par ces règles d'usurpation d'identité ne sont pas vraiment couverts."

Les victimes doivent s'appuyer sur les lois existantes sur l'extorsion et la fraude, a-t-elle déclaré.

"Nous n'avons pas besoin de nouvelles lois sur l'extorsion. L'extorsion est une extorsion, qu'elle soit le fait de deepfakes ou d'une personne ordinaire", a-t-elle ajouté.

"Il y a aussi une lacune majeure dans le rôle que jouent les plateformes dans la lutte contre les dommages qui leur sont causés."

Dunn a déclaré que les entreprises, y compris les développeurs d'IA, les plateformes de rencontres et de médias sociaux, devraient être conscientes des dommages potentiels et mettre en place les garanties nécessaires.

Clune a accepté. Il a déclaré que les nouvelles technologies "seront toujours devant les lois et les politiciens".

Il a déclaré que le rythme des progrès dans le domaine est "époustouflant" et qu'il continuera, voire s'accélérera.

"Presque tout ce que vous pouvez imaginer qui semble science-fiction et futuriste aujourd'hui sera là dans quelques années", a-t-il déclaré.

"Il vaut la peine que les politiciens et la société s'engagent dans des conversations réfléchies sur ce qui s'en vient et essaient de prendre de l'avance et de réfléchir à ce que nous pouvons faire à ce sujet."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd