人工知能の研究者らは金曜日、人気のAI画像生成ツールのトレーニングに使用されたデータセットから、児童性的虐待の疑いのある画像へのウェブリンク2,000件以上を削除したと発表した。
LAIONの研究データセットは、オンライン画像とキャプションの巨大なインデックスであり、Stable DiffusionやMidjourneyなどの主要なAI画像生成ツールのソースとなっている。
しかし、スタンフォード・インターネット・オブザーバトリーによる昨年のレポートによると、このデータセットには性的に露骨な児童画像へのリンクが含まれており、一部のAIツールが児童を描写したフォトリアリスティ ックなディープフェイクを簡単に生成できる一因となっていることが判明した。
この12月のレポートを受けて、非営利の大規模人工知能オープンネットワーク(Large-scale Artificial Intelligence Open Network)は直ちにデータセットを削除した。 8 か月後、LAION はブログ投稿で、スタンフォード大学の監視団体やカナダと英国の虐待防止団体と協力して問題を解決し、将来の AI 研究のためにクリーンアップされたデータセットを公開したと述べた。
12 月のレポートの著者でスタンフォード大学の研究者 David Thiel 氏は、LAION の大幅な改善を称賛したが、次のステップは、依然として児童虐待画像を生成することができる「汚染されたモデル」を配布から撤回することだと述べた。
スタンフォードが「露骨な画像を生成するための最も人気のあるモデル」として特定した LAION ベースのツールの 1 つ (Stable Diffusion の古い、軽くフィルタリングされたバージョン) は、木曜日まで簡単にアクセス可能だったが、ニューヨークに拠点を置く Runway ML 社が AI モデル リポジトリ Hugging Face から削除した。Runway は金曜日の声明で、これは「積極的にメンテナンスされていない研究モデルとコードの計画的な廃止」であると述べた。
LAIONデータセットのクリーンアップ版は、世界中の政府が、一部の技術ツールが子供の違法画像の作成や配布にどのように使用されているかを詳しく調査している中で発表された。
サンフランシスコ市の市検事は今月初め、AIで生成された女性や少女のヌード画像の作成を可能にするウェブサイトのグループの閉鎖を求める訴訟を起こした。メッセージングアプリTelegramで児童性的虐待画像を配布したとされる事件は、水曜日にフランス当局が同プラットフォームの創設者兼CEOのパベル・デュロフ氏を起訴するに至った原因の一部である。
カリフォルニア大学バークレー校の研究者デビッド・エヴァン・ハリス氏は、最近Runwayに連絡を取り、問題のあるAI画像生成ツールがなぜいまだに一般に公開されているのかを尋ねたところ、デュロフ氏の逮捕は「こうしたプラットフォームの創設者が個人的に責任を問われる可能性があるという、テクノロジー業界全体の大きな変化を示している」と述べた。数日後に削除されました。