Metaは、Meta AIチャットボットのユーザーが他のユーザーのプライベートプロンプトやAI生成応答にアクセス・閲覧できるセキュリティバグを修正しました。
セキュリティテスト会社AppSecureの創業者、サンディープ・ホドカシア氏は、TechCrunchの取材に対し、2024年12月26日に報告したバグを非公開で開示したことに対し、Metaからバグ報奨金として1万ドルを受け取ったと独占的に語りました。
ホドカシア氏によると、Metaは2025年1月24日に修正プログラムを導入し、このバグが悪用された形跡は見つからなかったとのことです。
ホドカシア氏はTechCrunchに対し、Meta AIがログインユーザーにAIプロンプトを編集させ、テキストや 画像を再生成する仕組みを調査した結果、このバグを発見したと語りました。ユーザーがプロンプトを編集すると、MetaのバックエンドサーバーがプロンプトとAI生成応答に固有の番号を割り当てることを発見しました。 AIプロンプトを編集中にブラウザのネットワークトラフィックを分析した結果、Hodkasia氏は、その固有番号を変更すると、Metaのサーバーが全く別のユーザーのプロンプトとAI生成の応答を返すことを発見しました。
このバグは、Metaのサーバーが、プロンプトとその応答を要求したユーザーがそれを表示する権限を持っているかどうかを適切に確認していなかったことを意味します。Hodkasia氏によると、Metaのサーバーによって生成されたプロンプト番号は「簡単に推測可能」であり、悪意のある人物が自動化ツールを使用してプロンプト番号を頻繁に変更することで、ユーザーの元のプロンプトをスクレイピングできる可能性があるとのことです。
TechCrunchの取材に対し、Metaは1月にこのバグを修正し、「不正使用の証拠は見つからず、研究者に報奨金を支払った」とMetaの広報担当者Ryan Daniels氏はTechCrunchに語りました。
このバグに関するニュースは、AI製品の使用に伴う多くのセキュリティとプライバシーのリスクにもかかわらず、テクノロジー大手各社がAI製品の発売と改良に奔走している時期に報じられた。
Meta AIのスタンドアロンアプリは、ChatGPTなどのライバルアプリと競合するために今年初めにデビューしましたが、一部のユーザーがチャットボットとのプライベートな会話だと思っていたものを誤って公開したため、出だしは不安定でした。