Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4162

関連インシデント

インシデント 8178 Report
Purportedly AI-Generated Images Reportedly Spread Misinformation During Hurricane Helene Response

Loading...
ハリケーン・ヘレンの被害者のAI「ディープフェイク」がソーシャルメディアで拡散
audacy.com · 2024

ハリケーン救援活動に寄付する前に、注意してください。ソーシャルメディアで見かける、被災者の悲痛な画像は、まったく本物ではない可能性があります。

Better Business Bureau は、ソーシャルメディアで人工知能を使って偽の嵐救援画像を作成している人がいるという新たな警告を出しています。

バージニア工科大学 によると、何千人もの善意の人々が、ハリケーン ヘレンの被害の余波を描写していると思われる写真を共有していますが、実際には AI によって生成された偽の画像です。

話題になった画像には、洪水に見舞われた道路からボートで救出された少女が子犬を抱きしめ、目に涙を浮かべている様子が写っている。この画像を使った多数の投稿では、ハリケーンの被害者よりもウクライナや「不法移民」への支援に資金が充てられていると主張している。

この画像は心を打つかもしれないが、完全に偽物だ。同じ少女が同じボートに乗っているが、抱いている子犬の色とライフジャケットの色が違う、別のアングルの2番目のバージョンもある。

「これは悲劇的な状況だ」と、BBBの広報担当者カール・ベイツ氏はWBRCに語った。 「こうした情報を共有しても、状況は改善されず、実際に関係する人々の助けにもなりません。傷つけるだけです。現在、ヘレンとミルトンの2つのハリケーンで多くの悲劇が起きています。これはすべきことではないことは明らかです。」

泣いている少女のような写真は、偽情報とソーシャルメディアの現在の課題を示しています。つまり、AI技術が、欺瞞的なリアルな画像を作成する能力を高めているということです、とバージニア工科大学の広報学教授、ケイス・マイヤーズ氏は言います。

「問題は、こうした偽の画像が人々の現実認識に影響を与え、ソーシャルメディアがこの偽情報の拡散を助長することです。その総合的な影響は、特に民主主義や公衆衛生などの重要な問題を扱う場合には、社会に悪影響を及ぼす可能性があります」とマイヤーズ氏は声明で述べています。

生成 AI の能力は驚異的な速度で進歩しているため、偽物を見分けるのは非常に難しくなっています。しかし、BBB にはいくつかの提案があります。

危険信号を探すには、コンテキストを確認してください。疑わしいと判断する最も確実な理由は、偽造の可能性がある画像を見たり、声を聞いたりするコンテキストです。次のような質問を自分に問いかけてください。その画像は、見知らぬ人に送金するなど、疑わしいと思われる緊急の行動を取るよう圧力をかけるために使用されているか、予期しない奇妙な支払いメカニズムを介しているか。コンテキストは政治的なものであり、誰かがあなたを怒らせたり感情的にさせようとしているように見えますか。

高解像度の画像を見つけて拡大します。可能な限り最高の解像度で画像を検索してから拡大します。AI 生成画像を見ている場合は、いくつかのヒントが見つかる可能性があります。

非対称性やその他の物理的な矛盾を考慮してください。ただし、注意してください。人間の顔、歯、手の非対称性は、低品質の AI 画像でよく見られる問題です。手指が余分 (または不足) であることに気付くかもしれません。耳、指、足が不釣り合いに大きい、または小さいなど、体の不自然な比率も、もう 1 つの明らかな兆候です。

奇妙なテクスチャまたは光沢のある効果。AI 画像には、実際の写真には見られないテクスチャのある背景やエアブラシのような外観がよく見られます。また、奇妙な背景や、ランダムにぼやけたスポットがある鮮明な画像に気付くこともあります。

ソースを確認します。写真を元の投稿までさかのぼって、誰が画像を共有したのか、なぜ共有したのかを確認します。衝撃的な政治的出来事やメッセージが示されている場合は、そのニュースがソーシャル メディアで取り上げられているのか、それとも主流メディアで取り上げられているのかを自問してください。主流メディアがニュースを取り上げることを躊躇するのはなぜでしょうか。おそらく、AI 生成画像によって裏付けられたフェイク ニュースです。

逆画像検索を実行します。画像の出所がわからない場合は、逆画像検索を試してください。これにより、画像が共有されているすべての Web サイトが表示され、画像のコンテキストと出所を理解するのに役立ちます。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd