概要: 報道によると、イラン内戦初期には、AIが生成したとされる、実在しない戦時中の場面を映した偽画像がオンラインで数百万人の視聴者に拡散した。これらの偽画像がソーシャルメディアやメッセージングアプリを通じて拡散したことで、紛争に対する世間の認識が歪められ、情報混乱の一因となったとされている。
Alleged: Unknown image generator developers , Unknown generative AI developers と Unknown deepfake technology developers developed an AI system deployed by Unknown social media accounts と Unknown disinformation actors, which harmed social media users , People seeking information about the war in Iran , General public , Epistemic integrity と National security and intelligence stakeholders.
インシデントのステータス
インシデントID
1406
レポート数
2
インシデント発生日
2026-02-28
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
Fake photos of the war in Iran are flooding social media, with Elon Musk's X platform breaking its own rules by allowing users to create AI pictures of real warzones.
"Iran is totally winning", reads the caption on one fake image of a downe…
Loading...
イラン内戦勃発後数週間、人工知能(AI)によって生成された偽動画や画像がソーシャルネットワークを席巻した。
これらの動画は、実際には起きていない大爆発、攻撃を受けていない破壊された街並み、存在しない戦争抗議活動を行う兵士などを映し出し、オンライン上の紛争に混乱と混乱の要素を加えた。
ニューヨーク・タイムズ紙は、過去2週間に中東戦争に関してAIによって生成された110点以上の画像と動画を特定した。偽動画は戦闘のあらゆる側面を網羅しており、テルアビブを襲う爆発に怯えるイスラエル人…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベ ース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
レビュー前
インシデント発生日:
2026-03-06