Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 912: Yahoo Boys and Scammers from Morocco Allegedly Target U.S. Widows and Vulnerable Individuals with 'Artificial Patriot' Scams

概要: Yahoo Boys (from Nigeria and Ghana) and scammers from Morocco are reportedly targeting U.S. widows and vulnerable individuals using AI-generated images and fake military profiles in "Artificial Patriot" scams. They have allegedly impersonated military officials such as General Matthew W. McFarlane to gain trust, sharing fabricated backstories and emotional appeals. Once trust is established, they request money through untraceable methods.
Editor Notes: The Yahoo Boys are reportedly not so much a centralized group as a loosely connected network of individuals and small clusters engaging in cybercrime schemes. In French-language reporting, they are usually referred to as "brouteurs," while in English-language reporting, they are often identified as "Yahoo Boys." While the Yahoo Boys have reportedly been experimenting with deepfake technology since sometime in 2021 or 2022, the incident date of 09/23/2024 is based off of initial reporting on American Patriot scams. See Incident 911 for more general reporting on Yahoo Boys using deepfakes for romance scams. See Incident 901 for a specific example of how three Yahoo Boys allegedly defrauded a French woman of $850,000 by posing as Brad Pitt. See Incident 913 for information pertaining to their use of AI to allegedly impersonate news organizations to blackmail victims.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Yahoo Boys , Scammers from West Africa , Scammers from Nigeria , Scammers from Morocco , Scammers from Ghana と Brouteurs, which harmed Widows , Matthew W. McFarlane , Impersonated American military officials , Emotionally vulnerable individuals と American widows.
関与が疑われるAIシステム: Unknown deepfake apps

インシデントのステータス

インシデントID
912
レポート数
2
インシデント発生日
2024-11-21
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

+1
未亡人が搾取される ― AI を活用した恋愛詐欺「ヤフーボーイズ」の内幕
Incident Occurrence
未亡人が搾取される ― AI を活用した恋愛詐欺「ヤフーボーイズ」の内幕

未亡人が搾取される ― AI を活用した恋愛詐欺「ヤフーボーイズ」の内幕

forbes.com

人工愛国者:外国人詐欺師がAI軍事写真を使って米国の未亡人から盗む

人工愛国者:外国人詐欺師がAI軍事写真を使って米国の未亡人から盗む

investigatetv.com

未亡人が搾取される ― AI を活用した恋愛詐欺「ヤフーボーイズ」の内幕
forbes.com · 2024
自動翻訳済み

外国の詐欺師たちは人工知能を使って、非常に説得力のある偽の軍人プロフィールを作成し、社会で最も弱い立場にある人々、つまり米国の未亡人をターゲットにしている。これらのいわゆる「人工愛国者」は、被害者の感情と信頼を食い物にし、しばしば壊滅的な経済的、感情的結果をもたらす。 AI で生成された画像や捏造された軍事記事の使用により、こうした詐欺の検出が難しくなり、裏切りによって生涯の貯蓄を失い、打ちのめされた 65 歳のサラ 未亡人のような被害者が生まれました。

「人工愛国者」ロマン…

人工愛国者:外国人詐欺師がAI軍事写真を使って米国の未亡人から盗む
investigatetv.com · 2024
自動翻訳済み

アトランタ(InvestigateTV)---両足切断の兵士がケーキを持って誕生日のお祝いをお願いしている。愛国心あふれるアメリカ人は、この投稿に「いいね!」やコメントを付け、フォロワーにシェアしている。

しかし、この兵士は本物ではない。人工知能によって作られたものだ。

InvestigateTVは、負傷した兵士、高齢の退役軍人、海外の米軍兵士が家族が恋しい、または「やっと家に帰れる」と書かれたプラカードを持っている、AIが生成した何千枚もの写真を突き止めた。さらに多くは、軍…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

Selected by our editors
Yahoo Boys Allegedly Used Deepfake Technology to Impersonate Brad Pitt and Defraud French Woman of $850,000 in Romance Scam

Woman who lost $850,000 to scammers posing as Brad Pitt faces wave of online harassment and mockery

Jan 2025 · 14 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 レポート
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 レポート
Facebook's Ad Delivery Reportedly Excluded Audience along Racial and Gender Lines

Discrimination through optimization: How Facebook's ad delivery can lead to skewed outcomes

Apr 2019 · 3 レポート
前のインシデント次のインシデント

よく似たインシデント

Selected by our editors
Yahoo Boys Allegedly Used Deepfake Technology to Impersonate Brad Pitt and Defraud French Woman of $850,000 in Romance Scam

Woman who lost $850,000 to scammers posing as Brad Pitt faces wave of online harassment and mockery

Jan 2025 · 14 レポート
テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Gender Biases in Google Translate

Semantics derived automatically from language corpora contain human-like biases

Apr 2017 · 10 レポート
Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 レポート
Facebook's Ad Delivery Reportedly Excluded Audience along Racial and Gender Lines

Discrimination through optimization: How Facebook's ad delivery can lead to skewed outcomes

Apr 2019 · 3 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 86fe0f5