Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4454

Incidents associés

Incident 8917 Rapports
AI Voice Scam Targets Westchester Parents with Fake Kidnapping Ransom Calls

Loading...
La police met en garde contre une arnaque par enlèvement visant des parents dans le comté de Westchester
abc7ny.com · 2025

COMTÉ DE WESTCHESTER (WABC) – Une nouvelle arnaque effrayante et effrayante cible les parents et leurs enfants.

Elle se manifeste dans le district scolaire de Peekskill, dans le comté de Westchester.

Des malfaiteurs prétendent avoir kidnappé des enfants et veulent de l'argent.

Ils utilisent l'IA pour imiter la voix de leurs enfants.

Le surintendant des écoles de Peekskill prévient que deux familles ont reçu des appels téléphoniques affirmant qu'un proche avait été kidnappé et demandaient une rançon.

Il s'agit d'une vieille arnaque avec une nouvelle tournure. La technologie de l'IA est utilisée pour donner l'impression que l'appel provient de la victime supposée.

Jonathan Munson est professeur d'informatique à l'université de Manhattanville.

Il dit que des échantillons de voix peuvent être prélevés sur les réseaux sociaux.

"S'ils ont des échantillons de voix, ils peuvent les utiliser pour reproduire la voix", a déclaré Munson.

Le mois dernier, le FBI a émis une alerte nationale sur l'utilisation croissante de l'IA pour se faire passer pour un proche dans une situation de crise.

Une démonstration d'ABC News montre à quel point un appel entièrement généré par ordinateur semble réaliste.

La caractéristique de pratiquement toute escroquerie est de faire pression sur la cible pour qu'elle agisse rapidement, c'est pourquoi les experts disent qu'il est crucial de prendre une minute pour se demander s'il s'agit peut-être d'une escroquerie.

"C'est la clé pour pouvoir faire cette pause et obtenir cette vérification que le FBI mentionne comme la première étape consiste à vérifier où se trouve cette personne", a déclaré Munson.

Une autre mesure de protection consiste pour les familles à disposer d'un mot de passe ou d'une phrase qu'elles peuvent demander pour prouver qu'un appel est réel.

La police de Peekskill enquête sur les deux incidents dans la communauté tandis que les autorités sensibilisent les gens pour éviter qu'ils ne deviennent la proie de cette tendance inquiétante.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd