Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 5021

Loading...
ジブリ風のAIトレンドは、クリエイターが独自の同意ツールを必要とする理由を示している
techpolicy.press · 2025

先週、OpenAIのGPT-4oの最新アップデートによって生成されたスタジオジブリ風のAI画像の洪水はすぐにインターネットの想像力をかき立て、伝えられるところによると、1日で100万人を超える新規ユーザーがプラットフォームに流入したとのことです。夢のような空、表情豊かな顔、柔らかな筆遣いは、スタジオの特徴的な美学を不思議なほどに再現し、そのスタイルは人気のミームから家族写真まで、あらゆるものにすぐに適用されました。OpenAIのCEO、サム・アルトマン氏はこのトレンドに飛びつき、Xアバターをスタジオジブリ風の画像に更新し、それについてツイートしました。ホワイトハウスもこれに加わり、今月初めに米国移民関税執行局に逮捕された女性の特に残酷な画像を投稿した。

これらの画像がスタジオジブリのスタイルに似ているのは偶然ではない。これらの画像は、OpenAIがスタジオジブリの著作権で保護されたコンテンツでモデルをトレーニングしたことの強力な証拠であり、おそらく許可なくスクレイピングされたものである。

スタジオは、その独特のスタイルが複製されることに同意しなかったことはほぼ間違いない。このトレンドが報道されるなか、スタジオの創設者である宮崎駿氏のコメントが再び浮上した。宮崎氏はかつて、AIが生成した動画について「まったくうんざりだ……これは生命そのものに対する侮辱だと強く感じている」と語っていた。すでに起こったことを元に戻すことはできないが、次世代のアーティストを保護し、創造性を尊重するより良いツールを構築することはできる。

同意、創造性、公平性を大切にするインターネットを望むなら、クリエイターが設定した境界を尊重するツールが必要であり、その境界は作品に付随するべきだ。AIスクレイピングを管理するための現在の提案は、主にrobots.txtに焦点を当てているが、これは主にウェブサイトの所有者やドメインを管理するパブリッシャーに役立つ。しかし、robots.txt はプラットフォーム間で共有されるコンテンツに効果的に対処しておらず、サードパーティのサイトで公開する場合や他の人によって作品が再利用される場合に、個々のクリエイターが簡単に同意を伝える方法も提供していません。このギャップを埋めるために、機械可読メタデータをファイルに直接埋め込むことから、同意をよりポータブルで永続的で、施行しやすいものにすることを目的とした新しいツールやプロトコルまで、新しいソリューションが登場しています。

robots.txt の限界

AI スクレイピングの管理に関する現在の多くの議論は、AI 時代に合わせて robots.txt を更新することに焦点を当てています。 robots.txt は、そのシンプルさ、幅広い採用、および Web クローラーをガイドする長年の役割により、非常に重要なツールですが、堅牢な権利管理ツールとして機能するように設計されたことはありません。これは、ウェブサイトとクローラーのやり取りのためのシンプルで自発的なプロトコルとして 30 年前に提案 された最初のプロトコルであり、サイト所有者が検索エンジン、研究者、アーカイブ プロジェクトに、明確なシグナルとマナーに基づいてコンテンツをどのように処理および使用してほしいかを表明する方法です。

クローラーが検索、調査、またはアーカイブ用にコンテンツをインデックスしていたときは、これは十分に機能していました。しかし、現在ではリスクははるかに高くなっています。今日の AI システムは、Wikipedia などのウェブサイト、The Guardian や The New York Times (現在 OpenAI を訴えている) などのニュース アウトレット、パブリック ドメインおよび海賊版の書籍、GitHub などのプラットフォームのコード、Reddit などのパブリック フォーラムなど、オープン ウェブから膨大な量のコンテンツをスクレイピングします。これらの素材の一部はパブリック ドメインまたはオープン ライセンスですが、多くは著作権で保護されており、法的および倫理的な懸念が続いています。

robots.txt は、AI スクレイパーにサイト全体から立ち去るように指示できる Web サイト所有者やパブリッシャーには適しているかもしれませんが、複数のプラットフォームや Web サイトでコンテンツを共有するアーティスト、ミュージシャン、ライター、その他のクリエイティブ プロフェッショナルなどの個々のコンテンツ クリエイターが直面する問題に対処することはほとんどできません。これらのクリエイターは、サードパーティのサイトで作品を公開するとき、または他の人が作品を使用するときに、同意の好みを簡単に伝える方法が必要です。

Bluesky に関する最近の議論 は、AI スクレイピングの時代における同意の複雑さを完璧に示しています。このプラットフォームは、ユーザーが自分の投稿をAIトレーニング用にスクレイピングするかどうかを選択できるようにする提案を導入しました。BlueskyのCEOであるジェイ・グラバー氏によると、この提案は、個人が自分のコンテンツの使用方法をより細かく制御できるようにする方法を示したものですが、反発を招きました。多くのユーザーは、提案された機能を、第三者を制御するツールではなく、Blueskyがユーザーの投稿でAIをトレーニングできるようにするプラットフォームポリシーの潜在的な変更と誤解しました。この提案はまだ、何らかの行動やプラットフォームの変更にはつながっていません。

この混乱は、より広範な問題を物語っています。ほとんどの人は、オプションが存在する場合でも、自分のコンテンツに対するオンライン同意の設定を表現する方法を知りません。オプションが存在する場合でも、技術的なメカニズムは隠されていたり、一貫性がなかったり、ドメインレベルの制御に限定されていることがよくあります。

コンテンツ レベルの同意のための新しいツール

robots.txt などのドメイン レベルの制御の限界が明らかになるにつれて、コンテンツに直接同意を埋め込む新しいアプローチが登場し、コンテンツが移植可能で永続的になり、プラットフォームに依存しなくなります。同意のシグナルを個々のファイルに直接埋め込むことに焦点を当てているものもあり、クリエイターがプラットフォーム間で設定を管理しやすくなります。

例としては、画像、動画、その他のデジタルファイル内に直接 機械可読メタデータを追加 することや、Spawning の Do Not Train ツールスイート や TDM·AI 提案 などのツールが挙げられます。これらは、コンテンツレベルの制御のための作成者に優しいソリューションを提供します。さらに、構造化 HTTP ヘッダー と、API およびクラウドサービスへのシグナリングメカニズムの拡張は、さまざまなデジタル環境で一貫した設定通信を保証するために提案されています。これらのツールを組み合わせることで、特に AI トレーニングのコンテキストにおいて、コンテンツがオンラインでどのように移動し使用されるかを管理する、よりスケーラブルでクリエイター中心の方法が得られます。

強制措置なしではシグナルだけでは不十分な理由

同意を表明することは方程式の半分にすぎません。 同意が尊重されることを確実にすることがもう半分です。 現在提案されている一連のツールは、完全に自発的なコンプライアンスに依存しています。 強制措置がなければ、最も明確なシグナルでさえ無視される可能性があります。 AI スクレイピングに対する反発が高まっていることは、オンラインでの長年の規範の浸食に対する深い懸念を反映しています

主に EU の規制当局が AI の透明性とデータ使用に関する法的枠組みの定義に動いているため、技術コミュニティには、意味のある強制措置可能な規範の形成に意見を述べ、貢献できる限られた時間しかありません。 EU AI法とそれに付随する行動規範により、権利保有者や文化団体が強制可能な保護手段とより意味のあるオプトアウト(およびオプトイン)メカニズムを要求しており、緊急性が高まっています。クリエイターに真に力を与えるツールが必要な場合は、表明された好みは説明責任によって裏付けられる必要があります。つまり、ベストプラクティスだけでなく規制も必要です。

推奨事項

これを正しく行うことは、出版社やアーティストだけでなく、情報へのオープンアクセスに依存する研究者やジャーナリストにとっても非常に重要です。政策立案者と技術者が AI データの利用の将来について議論している今こそ、意見を述べるときです。意見を述べるには、IETF との会話に参加する か、ブリュッセルで開催される今後のイベントとライブストリーム をフォローすることを検討してください。

コンテンツ クリエイターにとってよりよいインターネットを構築する方法についての推奨事項は次のとおりです。

  • **コンテンツ レベルのシグナルでクリエイターを支援する:**クリエイターには、自分の作品がどのように使用できるか、使用できないかを表現するためのシンプルで組み込みの方法が必要です。これらのシグナルは、ドメイン レベルだけでなく、コンテンツ自体 (画像、動画、テキスト ファイル) に直接埋め込まれる必要があります。これにより、設定が移植可能で永続的になり、プラットフォームに依存しなくなります。
  • **今すぐ明確なシグナルを優先し、すぐに施行されることを期待する:**シグナル システムの一貫性と理解度が高まれば高まるほど、政策立案者がその周囲に施行可能なルールを作成しやすくなります。規制措置の土台となるインフラストラクチャが必要です。
  • 複雑さを予想する: 広く採用されるためには、技術設計は軽量で相互運用可能である必要があり、それをサポートする法的枠組みは堅牢でなければなりません。言い換えれば、複雑な権利と公平性の関係を、自動化システムとサービス間通信用に構築されたプロトコルに縮小することはできません。機械が判読できるだけでなく、保護対象の人々にとって使いやすく理解しやすいシグナルが必要です。
  • **誰か、倫理的な代替手段を立ち上げてください:**開発者や日常のユーザーの間で、倫理的に調達されたデータでトレーニングされた AI システムに対する需要が高まっています。目立つことを目指す企業にとって、作成者の同意を尊重するモデルを構築またはサポートすることは、正しいことであるだけでなく、市場機会の到来を待っているのです。
情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd