Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

インシデント 817: AI-Generated Images Spread Misinformation During Hurricane Helene Response

概要: During Hurricane Helene (September 24-29, 2024), AI-generated images circulated on social media, misleading the public and hindering disaster response efforts. Fake images, including animals stranded on rooftops and political figures in floodwaters, added confusion and disrupted emergency management. The spread of these images exacerbated existing challenges, including power outages and communication failures, all of which led to complications providing accurate information to those in need.
Editor Notes: Motives for the misinformation seemed partisan in nature, while some appeared opportunistic and fraudulent.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
Alleged: Unknown deepfake technology developers developed an AI system deployed by Unknown deepfake creators と Partisan social media influencers, which harmed Hurricane Helene victims , General public , Emergency responders と Communities impacted by Hurricane Helene.

インシデントのステータス

インシデントID
817
レポート数
8
インシデント発生日
2024-09-24
エディタ
Daniel Atherton
Applied Taxonomies
MIT

MIT 分類法のクラス

Machine-Classified
分類法の詳細

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

3.1. False or misleading information

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Misinformation

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

インシデントレポート

レポートタイムライン

Incident Occurrence+3
ハリケーン・ヘレンのディープフェイクがソーシャルメディアを洪水させ、現実の人々を傷つける
悲痛な画像か、それとも別の何か?ハリケーン・ヘレンの被害者をAIが生成したディープフェイクが話題にハリケーン・ヘレンの偽画像が拡散、専門家は警告ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散AI生成画像は、今回の選挙シーズンで新たな形のプロパガンダとなっている
ハリケーン・ヘレンのディープフェイクがソーシャルメディアを洪水させ、現実の人々を傷つける

ハリケーン・ヘレンのディープフェイクがソーシャルメディアを洪水させ、現実の人々を傷つける

forbes.com

災害の霧は悪化している

災害の霧は悪化している

theatlantic.com

ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散し、「実際の人々を傷つけている」

ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散し、「実際の人々を傷つけている」

nypost.com

ハリケーン・ヘレンのディープフェイク画像が救援活動を妨害し、誤報を助長

ハリケーン・ヘレンのディープフェイク画像が救援活動を妨害し、誤報を助長

tribune.com.pk

悲痛な画像か、それとも別の何か?ハリケーン・ヘレンの被害者をAIが生成したディープフェイクが話題に

悲痛な画像か、それとも別の何か?ハリケーン・ヘレンの被害者をAIが生成したディープフェイクが話題に

wionews.com

ハリケーン・ヘレンの偽画像が拡散、専門家は警告

ハリケーン・ヘレンの偽画像が拡散、専門家は警告

newswise.com

ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散

ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散

audacy.com

AI生成画像は、今回の選挙シーズンで新たな形のプロパガンダとなっている

AI生成画像は、今回の選挙シーズンで新たな形のプロパガンダとなっている

npr.org

ハリケーン・ヘレンのディープフェイクがソーシャルメディアを洪水させ、現実の人々を傷つける
forbes.com · 2024
自動翻訳済み

ハリケーン・ヘレンの余波で、ノースカロライナ州アッシュビルやその他の被災地域は洪水に見舞われ、破壊と人々の苦しみを描いた偽の AI 画像がソーシャル メディアに溢れかえりました。

これらの加工または偽造された画像は、災害対応活動を複雑にし、虚偽の物語を生み出し、何よりも、生死の境をさまよう中で普通の人々が互いに助け合うために並外れた努力をしているときに、国民の信頼を損なう可能性があります。

特に、子犬を抱きしめ、洪水に閉じ込められているように見える困惑した子供の 2 枚の写真…

災害の霧は悪化している
theatlantic.com · 2024
自動翻訳済み

自然災害の際の出来事を追跡するのは、疑わしい動機を持つ人々が人工知能によって生成されたセンセーショナルな画像をソーシャルメディアに氾濫させ始める前でも十分に困難でした。危機においては、公務員、救急隊員、危険にさらされている人々は皆、信頼できる情報を必要とします。ハリケーン・ヘレンの余波は、テクノロジーによって他の人々とつながる能力が理論的には向上したとしても、地上で何が起こっているかに対する私たちの可視性は低下している可能性があることを示しました。

先週末から、ヘレンの高潮、…

ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散し、「実際の人々を傷つけている」
nypost.com · 2024
自動翻訳済み

ハリケーン・ヘレンの余波で、インターネットには誤情報があふれている。その中には、洪水とみられる海に浮かぶ船上で絶望し、泣いている子供の加工されたAI画像2枚も含まれている。

一見すると、ネット上に出回っている写真は、2005年のハリケーン・カトリーナ以来米国を襲った最悪の嵐による雨に濡れ続ける中、ライフジャケットを着た子供が犬を抱いているだけのものに思える。

しかし、よく見ると、ほぼ同一の2枚の写真の間にいくつかの矛盾が見られることがForbesが報じた。

ハリケーン・ヘレン…

ハリケーン・ヘレンのディープフェイク画像が救援活動を妨害し、誤報を助長
tribune.com.pk · 2024
自動翻訳済み

ハリケーン・ヘレンの余波で、荒廃と人々の苦しみを描いたAI生成のディープフェイク画像がソーシャルメディアに溢れ、専門家の間で警戒が高まっている。

これらの偽の映像は混乱を広げているだけでなく、アッシュビルのような被害の大きい地域での重要な災害対応活動を妨げている。

最も話題になった画像の1つは、子犬を抱いた少女が洪水に取り残されたように見える画像だ。

しかし、デジタルフォレンジックの専門家による調査で、この画像は加工されていることが判明した。少女の手の指が余分にあることや、子…

悲痛な画像か、それとも別の何か?ハリケーン・ヘレンの被害者をAIが生成したディープフェイクが話題に
wionews.com · 2024
自動翻訳済み

ハリケーン・ヘレンが米国を襲ってからわずか数日後、ネットには誤情報があふれている。その中には、洪水の中でボートに乗った取り乱した子供を写したと思われるデジタル加工された画像が2枚ある。

一見すると、この画像は、壊滅的な嵐による激しい雨が降り注ぐ中、ライフジャケットを着た子供が犬を抱きしめている様子を描いているように見える。しかし、よく見ると、画像が偽物であることがわかる欠陥が見つかる。

フォーブス誌が報じているように、この2枚の写真には大きな改変が見られる。1枚の写真では子供…

ハリケーン・ヘレンの偽画像が拡散、専門家は警告
newswise.com · 2024
自動翻訳済み

ニュースワイズ — 何千人もの善意のソーシャルメディアユーザーが、ハリケーン・ヘレンの被害の跡を描いたと思われる写真を共有してきたが、それらは人工知能 (AI) によって生成された偽の画像であることが判明した。これらの偽の画像は、危機の際に正当なニュースソースへの信頼を損なう可能性があり、サイバー攻撃の媒介として機能することさえある。

コミュニケーションメディアの専門家であるケイス・マイヤーズ氏は、これらの偽の画像がもたらす問題について説明し、デジタル文学の専門家であるジュリ…

ハリケーン・ヘレンの被害者のAI「ディープフェイク」��がソーシャルメディアで拡散
audacy.com · 2024
自動翻訳済み

ハリケーン救援活動に寄付する前に、注意してください。ソーシャルメディアで見かける、被災者の悲痛な画像は、まったく本物ではない可能性があります。

Better Business Bureau は、ソーシャルメディアで人工知能を使って偽の嵐救援画像を作成している人がいるという新たな警告を出しています。

バージニア工科大学 によると、何千人もの善意の人々が、ハリケーン ヘレンの被害の余波を描写していると思われる写真を共有していますが、実際には AI によって生成された偽の画像です。…

AI生成画像は、今回の選挙シーズンで新たな形のプロパガンダとなっている
npr.org · 2024
自動翻訳済み

ハリケーン・ヘレンによる壊滅的な被害の画像がオンラインで拡散し始めた後、ボートの上で子犬を抱きかかえて泣いている子供の画像も拡散した。この画像を掲載したX(旧Twitter)の投稿の一部は、何百万回も閲覧された。

この投稿は、バイデン政権の災害対応を批判したい共和党員を含む多くのユーザーから感情的な反応を引き起こした。しかし、他のユーザーは、この画像がAI生成ツールで作成された可能性が高いという明らかな兆候をすぐに指摘した。たとえば、一部のAI画像生成ツールに共通する奇形の手…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 レポート
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Predictive Policing Biases of PredPol

Policing the Future

Nov 2015 · 17 レポート
Wikipedia Vandalism Prevention Bot Loop

Danger, danger! 10 alarming examples of AI gone wild

Feb 2017 · 6 レポート
A Collection of Tesla Autopilot-Involved Crashes

Tesla Model X in Autopilot Killed a Driver. Officials Aren’t Pleased With How Tesla Handled It.

Jun 2016 · 22 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 1420c8e