Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 7117

関連インシデント

インシデント 13972 Report
Deepfakes Reportedly Impersonated David Taylor-Robinson and Other UK Health Experts to Promote Wellness Nest Supplements

Loading...
本物の医師を模倣したAIディープフェイクがソーシャルメディアで健康に関する誤情報を拡散
nphic.org · 2025

新たな調査により、公衆衛生上の脅威が深刻化していることが明らかになりました。それは、AIが生成したディープフェイク動画が、本物の医師になりすまして健康に関する誤情報を拡散し、ソーシャルメディア上で効果が証明されていないサプリメントを販売しているというものです。ファクトチェッカーは、著名な医療専門家の映像を改ざんした数百もの動画を発見しました。これらの動画は、更年期障害などの症状をターゲットにした製品を宣伝し、人々の信頼を損ない、医療専門家の権威を悪用しています。

こうしたコンテンツの削除が各プラットフォームで遅れていることは、検出、責任追及、そして対応における課題を浮き彫りにしています。公衆衛生の広報担当者にとって、今回の調査結果は、AIによる誤情報がますます巧妙化し、広まる中で、偽りの信頼性に対処し、メディアリテラシーを強化し、視聴者をエビデンスに基づいた情報へと積極的に導く必要性を改めて示しています。詳細はガーディアン紙の記事をご覧ください(こちら)。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2026 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 70bfe3d