Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6144

関連インシデント

インシデント 11865 Report
Reported Public Exposure of Over 100,000 LLM Conversations via Share Links Indexed by Search Engines and Archived

Loading...
143,000件のClaude、Copilot、ChatGPTチャットが公開されています。あなたは危険にさらされていましたか?
obsidiansecurity.com · 2025

発生状況:セキュリティ研究者は、Claude、Copilot、ChatGPTを含むGenAIチャットボットとのユーザーによる143,000件以上の会話がArchive.orgで公開されていることを発見しました。この発見は、ChatGPTクエリがGoogleなどの検索エンジンによってインデックスされていたという最近の情報開示に続くものです。このようなインシデントは、AIプラットフォームを通じたデータ漏洩や機密情報の不注意な漏洩に対する幅広い懸念を引き起こし続けています。

インシデントの詳細: 最近のブログ投稿で、セキュリティ研究者のdead1nfluenceは、Grok、ChatGPT、Copilot、Claude、Mistral、Qwenなどのプラットフォームから共有可能なリンクを発見した経緯を説明しています。

  • 研究者はまず、アーカイブされたChatGPTリンクがWayback Machineが提供するパブリックAPI経由でアクセス可能であることを突き止めました。
  • このエンドポイントをクエリすることで、共有されたLLM会話URLの包括的なリストを取得しました。
  • 基本的なコマンドラインツール(wgetやgrepなど)を使用して、リンクをダウンロードし、プロバイダー別に分類しました。
  • 各LLMプラットフォームは、共有コンテンツのレンダリングにそれぞれ異なるメカニズムを使用していました。直接パブリックアクセスを利用するものから、バックエンドAPI呼び出しを必要とするものまで、多岐にわたります。
  • 適切なエンドポイントが特定されると、URL はプログラムによって一括収集用に準備されました。
  • 複数のプロバイダーから、合計 143,000 件の公開アクセス可能な LLM 会話が復元されました。
  • 研究者は、公開されたコンテンツが攻撃者にとって有用である可能性についても調査し、最終的に AWS アクセスキー ID、Replicate API トークンなどを発見しました。

**重要性: **このようなセキュリティ調査は、AI とデータプライバシー、特に機密性の高いワークフローで LLM を導入している組織にとって深刻なリスクを示しています。ユーザーが悪意を持って機密情報を共有する意図がなくても、プロンプトには独自のビジネスコンテキスト、PII、知的財産が含まれていることがよくあります。これらの会話がアーカイブされ、公開されると、その情報は誰にでも公開される可能性があります。

**一歩引いて考える: **生成 AI ツールはユーザーの迅速な行動を可能にしますが、同時に、データ漏洩に関する新たな、そしてしばしば隠れたリスクももたらします。

  • **ユーザーは、AI システムとやり取りした後、自分のデータがどこに送られるのかを完全に理解していない可能性があります。 **この場合、チャットボットの会話をリンクで共有するといった単純な行為でさえ、たとえ同僚による確認のみを目的としていたとしても、そのコンテンツが検索エンジンによって永久にアーカイブされたり、インデックス登録されたりする可能性があります。 
  • **企業は、サードパーティのAIプラットフォームとやり取りする際に、データがどのように、どこに流れているのかを明確に把握していません。  **適切なガードレールがなければ、機密性の高いビジネス情報が組織の管理下から簡単に漏れてしまう可能性があります。その結果、風評被害、規制違反、サイバー犯罪行為、そして機密性の高いビジネス情報の長期的な損失につながる可能性があります。 

一般的なセキュリティ戦略:

  • AI利用ポリシーの定義と適用:

  • GenAIツールに入力できるデータの種類と入力できないデータの種類を明確に定義する

  • 機密データ、秘密データ、または規制対象データについては、公開LLMプラットフォームの使用を制限する

  • 新しいAIツールを社内で導入するための承認プロセスを確立する

  • シャドーAIツール(IT部門やセキュリティ部門が把握していないツール)の可視性を確保する

  • AIの使用状況を監視および監査する

  • AIツールを使用しているユーザーとその目的を追跡する

  • AI関連のアクティビティを記録および分析する

  • AIツールの使用に伴うリスクについてユーザーに教育する

‍**Obsidianのお客様向け: **

  • シャドーAIを含むすべてのAI使用状況をインベントリ化する

  • 各AIアプリについて、導入状況を追跡・管理し、使用パターンを把握し、リスクレベルを評価する

  • 承認されていないAIプラットフォームへのアクセスを制限し、従業員が高リスクツールや非公式ツールを使用しないようにする

  • Obsidianのプロンプトセキュリティ制御を実装する:

  • 機密データを含むプロンプトがサードパーティのAIツールに送信される前に、それを傍受する

  • GenAIツールが管理されていないアカウントや個人アカウントからアクセスされた場合でも、機密情報や専有情報を含む投稿をブロックします。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd