Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1194: Une femme de Los Angeles aurait été escroquée de plus de 81 000 $ et aurait bénéficié d'une vente de condo de 350 000 $ dans le cadre d'une arnaque amoureuse utilisant de prétendues vidéos deepfake et la voix de l'acteur Steve Burton.

Traduit par IA
Description:
Traduit par IA
En octobre 2024, Abigail Ruvalcaba, une résidente de Los Angeles, aurait été victime d'une arnaque sentimentale utilisant de prétendues vidéos deepfake générées par l'IA et des imitations vocales de l'acteur Steve Burton. Croyant être en couple, elle aurait envoyé plus de 81 000 dollars en espèces, en cartes-cadeaux et en cryptomonnaies, puis vendu son appartement pour 350 000 dollars et transféré le produit de l'arnaque à l'escroc. Sa fille est intervenue en février 2025, mais la famille serait désormais confrontée à la faillite et à des batailles juridiques pour récupérer ses pertes.
Editor Notes: Timeline note: This incident ID takes 10/01/2024 as the incident date, which is approximate, corresponding to when Abigail Ruvalcaba was reportedly first contacted on Facebook Messenger by scammers using purportedly AI-generated deepfake videos and messages allegedly to impersonate actor Steve Burton. Over the following months, the scam allegedly escalated, with communications reportedly moving to WhatsApp and including repeated financial requests. By early 2025, Ruvalcaba had allegedly sent more than $81,000. In February 2025, her daughter reportedly discovered the deception and intervened before an additional $70,000 was allegedly about to be sent. By then, Ruvalcaba had already purportedly sold her family's condo for $350,000 and transferred proceeds to the scammers. The case was widely reported in late August 2025 and added to the database on 09/01/2025.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Unknown voice cloning technology developer et Unknown deepfake technology developer developed an AI system deployed by Unknown scammers impersonating Steve Burton , Unknown scammers et Unknown fraudsters, which harmed Steve Burton , General public , Family of Abigail Ruvalcaba et Abigail Ruvalcaba.
Systèmes d'IA présumés impliqués: WhatsApp , Unknown voice cloning technology , Unknown deepfake technology et Facebook Messenger

Statistiques d'incidents

ID
1194
Nombre de rapports
1
Date de l'incident
2024-10-01
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceUne femme de Los Angeles perd toutes ses économies après que des escrocs ont utilisé l'IA pour se faire passer pour une star de General Hospital, selon sa famille.
Loading...
Une femme de Los Angeles perd toutes ses économies après que des escrocs ont utilisé l'IA pour se faire passer pour une star de General Hospital, selon sa famille.

Une femme de Los Angeles perd toutes ses économies après que des escrocs ont utilisé l'IA pour se faire passer pour une star de General Hospital, selon sa famille.

people.com

Loading...
Une femme de Los Angeles perd toutes ses économies après que des escrocs ont utilisé l'IA pour se faire passer pour une star de General Hospital, selon sa famille.
people.com · 2025
Traduit par IA

Une femme de Los Angeles s'est fait escroquer toutes ses économies après que des escrocs ont utilisé des vidéos IA d'une star de General Hospital pour l'escroquer.

Abigail Ruvalcaba a déclaré avoir reçu plusieurs messages, dont des vidéos d…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 rapports
Loading...
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 rapports
Incident précédent

Incidents similaires

Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Loading...
Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Reported AI-Cloned Voice Used to Deceive Hong Kong Bank Manager in Purported $35 Million Fraud Scheme

Jan 2020 · 6 rapports
Loading...
Fake LinkedIn Profiles Created Using GAN Photos

Fake LinkedIn Profiles Created Using GAN Photos

Feb 2022 · 4 rapports
Loading...
Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

Unreliable ShotSpotter Audio Previously Used to Convict Chicago Man in Murder Case

May 2020 · 9 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e132322