Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6301

Loading...
8つのソーシャルアプリに偽の動画をアップロードしました。そのうち1つだけが、ユーザーにそれが本物ではないと伝えました。
washingtonpost.com · 2025

新たな人工知能ツールが、ますますリアルな偽動画や偽画像を次々とオンライン上に生成する中、テクノロジー企業は大規模な混乱を防ぐための計画を策定しました。

ChatGPTを開発するOpenAIなどの企業は、AIが生成したことを示す改ざん防止マーカーを各偽動画に付与することを約束しました。FacebookやTikTokなどのソーシャルメディアプラットフォームは、これらのマーカーをユーザーに公開し、視聴者がコンテンツが偽物であることを認識できるようにし、専門家がコンテンツの出所を追跡できるようにすると発表しました。

このシステムは、ディープフェイクが選挙を妨害したり、混乱を引き起こしたりするのを防ぐためのデジタルグラウンドトゥルースを提供することを目的としていました。テクノロジー企業は、AIの力に対する安全策を求める政府規制当局への対応策の一環として、このシステムを導入しました。

しかし、ワシントン・ポスト紙が主要8つのソーシャルプラットフォームでテストしたところ、アップロードされたAI動画に警告を追加したのは1つのプラットフォームだけでした。Google傘下のYouTubeによるこの警告は、動画に添付された説明文の中に隠されていました。

さらに、テスト対象となった全てのプラットフォームは、合成動画であることを明らかにしたデジタルマーカーを動画から削除し、その出所を検証できないようにしていた。

AI生成動画は、偽動画を実際の映像と区別できないほどの技術進歩と、その技術の広範な普及により、かつてないほど破壊的な影響力を強めている。しかし、ワシントン・ポスト紙の調査によると、テスト対象となったプラットフォームのいずれも、テクノロジー企業が長年謳歌してきたAIコンテンツのマーキング基準を完全にサポートしていなかった。

英国オープン大学でAI生成コンテンツのラベル付けを研究しているアロシャ・バンダラ氏は、近年のAIの進歩により、オンライン視聴者はAIコンテンツの「スケールとリアリティに耐えられなくなっている」と述べ、堅牢な情報開示システムが重要だと付け加えた。カリフォルニア州知事ギャビン・ニューサム氏が先週署名した法律により、来年から大手オンラインプラットフォームは、コンテンツがAIによって改変または生成されたかどうかを示す可能性のある情報を「目立つように公開」することが義務付けられる。

ワシントン・ポスト紙は、OpenAIがリリースした強力な新動画アプリ「Sora」で生成された動画を用いて、これらのプラットフォームをテストした。

Googleの広報担当者、クリスタ・マルドゥーン氏は、ワシントン・ポスト紙がテストしたメディアファイルにマークを付けるコンテンツ認証規格は、コンテンツがどのように作成されたかに関する情報へのアクセスを人々に提供するという同社の戦略の一環であると述べた。「導入には時間がかかることを認識しており、この作業は継続中です」とマルドゥーン氏は述べた。

Meta、OpenAI、TikTok、Snapchat、Xはコメントの要請に応じなかった。LinkedInとPinterestは公式コメントを拒否した。ワシントン・ポスト紙はOpenAIとコンテンツに関する提携関係にある。

AIの台頭により、操作されたり誤解を招くようなコンテンツに対する懸念が高まっている。 2021年、Microsoft、Adobe、BBCを含む6社が提携し、メディアファイルにメタデータを追加してコンテンツの制作方法を明らかにする技術標準「コンテンツ認証情報」を開発しました。

コンテンツ認証情報でタグ付けされたファイルには、改ざん防止機能を備えたメタデータが付与されます。メタデータには、映像を撮影したカメラの機種、編集に使用されたソフトウェア、映像を生成したAIシステムといった詳細情報が含まれます。

この標準を監督する団体「コンテンツの出所と真正性のための連合(Coalition for Content Provenance and Authenticity)」によると、このデータは「コンテンツの履歴を誰でもいつでもアクセスできるようにする」ことを目的としています。この団体には、Intelなどのチップメーカー、ソニーやニコンなどのカメラメーカー、AP通信などの報道機関、GoogleやMetaなどの大手IT企業、そしてOpenAIやTikTokなどの新興ライバル企業など、数百社が加盟しています。

しかし、コンテンツ認証情報は任意参加のシステムであり、ソーシャルメディアプラットフォームがこの標準を実装しなければ、実質的に役に立たなくなります。

どのソーシャルメディアサイトがこの標準を完全に実装しているかをテストするため、ワシントン・ポスト紙はSoraを使った動画を生成し、コンテンツ認証情報データが含まれていることを確認しました。コンテンツ認証情報にはSoraへの言及があり、「Generative AIを使用して作成」および「OpenAI発行」というフレーズが含まれていました。同じ動画が、新規投稿のデフォルト設定を使用して8つのソーシャルプラットフォームに投稿されました。

ワシントン・ポスト紙がテストしたプラットフォームは、動画のコンテンツ認証情報データを保存したり、ユーザーがアクセスできるようにしたりしていませんでした。YouTubeのみが、動画が本物ではないことを示す表示を出しましたが、動画に添付された説明文には、クリックしたユーザーのみが閲覧できるプラットフォームの開示情報が追加されていました。YouTubeは動画を「改変または合成コンテンツ」と説明し、AIについては言及していませんでした。

YouTubeを所有するGoogle、FacebookとInstagramを所有するMeta、LinkedInとOpenAIを所有するMicrosoftは、コンテンツ認証情報を支援する連合の運営委員会メンバーです。 TikTokは一般会員であり、Twitterも同様でした。イーロン・マスク氏が同社を買収し、Xに改名するまでは。

TikTokとLinkedInは昨年、AI生成動画にラベルを付ける「コンテンツ認証」を導入すると発表しました。Metaも昨年、AI生成画像にこの標準規格を適用すると発表し、Pinterestも今年4月に同様の発表を行いましたが、どちらも動画にマーカーを追加するとは明言していません。Snapchatはコンテンツ認証とは関係がないようです。

コンテンツ認証を推進する連合のエグゼクティブチェアであるアンドリュー・ジェンクス氏は声明の中で、ユーザーは「コンテンツがどのように制作されたか、どのようなツールが使用されたか」を知る権利があるべきだと述べました。業界は「このレベルの透明性を実現可能かつ効果的にするために、アプローチを進化させ続けなければならない」とジェンクス氏は述べました。

Google、OpenAI、その他のAI企業は、バイデン政権下で、コンテンツ認証情報のようなシステムの開発にコミットし、「コンテンツがAIによって生成されたことをユーザーが確実に認識できるようにする」ことを約束しました。

OpenAIが今月リリースしたSoraは、非常にリアルなAI動画の創造性と商業的可能性を試す大きな試金石となる一方で、潜在的な欠点も抱えています。このアプリは、ほぼあらゆるシーンに実在の人物の肖像を挿入する短いクリップを生成できます。ユーザーは自分の肖像を共有し、他の人が自分の作品に取り入れられるようにすることができます。

OpenAIは「責任あるSoraのローンチ」と題したウェブページで、すべての動画にコンテンツ認証情報メタデータを追加し、これを「業界標準の署名」と呼んでいると述べています。ワシントン・ポスト紙のテストでは、業界がこの標準を使用していないことが示されています。

OpenAIは他にも脆弱性のある対策を挙げています。

同社はすべてのSora動画に透明なロゴまたは透かしを追加していますが、将来的には削除される可能性を示唆しています。透かしを削除するサービスがオンラインで登場しており、ソフトウェア開発者が使用できるSoraのバージョンでは、透かしもコンテンツ認証情報メタデータも追加されません。同社のドキュメントによると、「プロ」プランのユーザーは、Soraで生成された一部の動画を透かしなしでダウンロードできます。[https://help.openai.com/en/articles/12460853-creating-videos-with-sora]。

OpenAIはまた、Soraの動画に目に見えない真正性マーカーを埋め込み、「高精度」で検出できるシステムを開発したと述べていますが、このツールは社内使用のみに限られています。GoogleのSynthIDプロジェクトも同様のことを行っていますが、Soraの検出器と同様に、このツールも一般公開されていません。

他の企業は、画像や動画のパターンから操作されたコンテンツを検出することを目的としたツールを販売しています。これらのツールは信頼性が低いことが証明されています、またソーシャルメディアプラットフォームでは広く導入されていません。

一方で、テクノロジー業界は、誰もが数秒でますます本物らしく見える動画クリップを作成できる製品の開発とリリースを続けています。

オープン大学のバンダラ氏とスリランカのコロンボ大学のディルクシ・ガマゲ氏による研究では、コンテンツにAI生成のラベルを付けることで、それが偽物であることを人々に知らせるのに効果的であることが発見されました。

しかし、そのようなラベルを確実に提供する方法を見つけるのは困難です。「潜在的なディストピアは、すべてのコンテンツ、すべてのビデオ、写真が本物であると確実に認証されるまで、疑わしいとされなければならないということです」とバンダラ氏は述べています。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd