Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2788

Loading...
Expliqué : comment l'image de l'IA et les générateurs de voix peuvent constituer une menace pour la sécurité mondiale
gadgetsnow.com · 2023

L'intelligence artificielle (IA) fait parler d'elle depuis qu'OpenAI a lancé le chatbot ChatGPT. La tendance s'est accélérée lorsque Microsoft a annoncé le "nouveau" Bing avec des fonctionnalités de chatbot. Les deux derniers mois ont vu plusieurs rapports sur des modèles d'IA qui peuvent convertir la saisie de texte en images et imiter les voix. Bien que cela puisse sembler "cool", un examen approfondi de la technologie suggère qu'elle peut constituer une menace pour la sécurité à l'échelle mondiale. Ici, nous discutons de certaines façons dont les gens peuvent tomber dans le piège des pirates à mesure que l'IA devient plus sophistiquée.

Pêche au chat

Il existe plusieurs textes pour les générateurs d'images AI disponibles en ligne. Ceux-ci peuvent convertir des mots en une image en quelques secondes et si votre description est suffisamment détaillée, vous pouvez obtenir un art vibrant qui peut être utilisé pour tromper les gens ou pour la pêche au chat.

Le catfishing est une technique trompeuse dans laquelle une identité sociale fictive/fausse est créée pour cibler des victimes pas si douées pour la technologie. Il peut être utilisé pour des gains financiers ou pour compromettre la vie privée d'une victime. Parmi les différents générateurs d'images AI figurent Stable Diffusion de Qualcomm, qui peut créer une image en utilisant la saisie de texte sur un téléphone hors ligne, DALL-E, DeepAI et Fotor.

Escroqueries financières

Selon un rapport de la BBC, les pirates ont utilisé des images générées par l'IA des tremblements de terre en Turquie et en Syrie pour inciter les gens à faire un don à la "fausse" cause. Les escrocs ont canalisé les dons vers leurs propres comptes et portefeuilles en proposant des liens vers de fausses photos de la dévastation sur les réseaux sociaux. Le rapport a révélé que les acteurs de la menace ont également publié des légendes accrocheuses comme « Aidons la Turquie », « Prions pour la Turquie » et « Faites un don pour les victimes du tremblement de terre » sur leurs messages.

Désinformation par Deepfakes

Les Deepfakes présentent des dangers depuis un certain temps déjà. La technologie devenant sophistiquée au fil des ans, les risques n'ont fait qu'augmenter. Un deepfake est un média synthétique dans lequel une personne dans une image ou une vidéo existante est remplacée par celle de quelqu'un d'autre, comme un politicien, un acteur ou un activiste social.

Lors d'un incident tristement célèbre, une fausse vidéo représentant le président ukrainien Volodymyr Zelenskyy a circulé sur les réseaux sociaux. Dans la vidéo, un deepfake de Zelenskyy a été vu demandant aux Ukrainiens de se rendre lors d'une attaque russe. Il y a aussi une vidéo du "faux" Morgan Freeman sur YouTube.

Outils vocaux IA

Plus tôt cette année, Microsoft a lancé l'outil VALL-E AI qui peut reproduire la voix des gens avec un échantillon de 3 secondes. Bien qu'il puisse avoir plusieurs cas d'utilisation positifs, il représente une plus grande menace car les escrocs peuvent l'utiliser pour donner l'impression que les appels de spam sont réels. Les politiciens ou les personnes ayant une énorme présence sociale peuvent également être usurpés. De plus, il peut être utilisé dans les cas où un mot de passe vocal est nécessaire.

Régulation nécessaire

L'utilisation de ces outils d'IA est limitée à l'heure actuelle, mais compte tenu des implications, une réglementation peut être nécessaire pour réduire ces risques. Il est également conseillé aux utilisateurs de faire preuve de prudence lorsqu'ils interagissent avec les publications sur les réseaux sociaux, car il pourrait s'agir d'escroqueries déguisées en causes sociales.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd