Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
自動翻訳済み

インシデント 1412: CodeWallの自律型エージェントが、McKinseyのLilli AIプラットフォームデータベースに不正アクセスしたと報じられている。

自動翻訳済み
概要:
自動翻訳済み
CodeWallは、同社の自律型エージェントがMcKinseyのLilli AIプラットフォームの脆弱性を悪用し、本番システムへの不正な読み書きアクセス権を取得し、内部チャットメッセージ、ファイル、ユーザーアカウント、プロンプトなどを漏洩させた可能性があると報告した。McKinseyはこの脆弱性を認め、数時間以内に問題を修正したと述べたが、顧客データや顧客の機密情報にアクセスされた証拠は見つからなかったとしている。
Editor Notes: Treated as an incident rather than an issue because the report alleges a realized unauthorized access event against McKinsey's live Lilli production system, with actual internal data and prompt-layer assets reportedly exposed, rather than just being a theoretical or unexploited vulnerability.

ツール

新しいレポート新しいレポート新しいレスポンス新しいレスポンス発見する発見する履歴を表示履歴を表示

組織

すべての組織を表示
推定: McKinsey & Company , CodeWall , Retrieval-augmented generation (RAG) system , Lilli , CodeWall autonomous offensive agent , AI-powered enterprise search system と AI document analysis systemが開発し提供したAIシステムで、McKinsey & Company , McKinsey & Company employees , McKinsey & Company consultants と Lilli usersに影響を与えた
関与が疑われるAIシステム: Retrieval-augmented generation (RAG) system , Lilli , CodeWall autonomous offensive agent , AI-powered enterprise search system と AI document analysis system

インシデントのステータス

インシデントID
1412
レポート数
1
インシデント発生日
2026-02-28
エディタ
Daniel Atherton

インシデントレポート

レポートタイムライン

Incident OccurrenceマッキンゼーのAIプラットフォームをハッキングした方法
Loading...
マッキンゼーのAIプラットフォームをハッキングした方法

マッキンゼーのAIプラットフォームをハッキングした方法

codewall.ai

Loading...
マッキンゼーのAIプラットフォームをハッキングした方法
codewall.ai · 2026
自動翻訳済み

世界で最も権威あるコンサルティングファームであるマッキンゼー・アンド・カンパニーは、43,000人を超える従業員向けに「Lilli」という社内AIプラットフォームを構築しました。Lilliは、チャット、文書分析、数十年にわたる独自の調査に基づくRAG(リソース分析グループ)、10万件以上の社内文書を対象としたAI検索など、特定の目的に特化したシステムです。2023年にローンチされ、1945年に同社に採用された初の女性専門家にちなんで名付けられました。マッキンゼーの従業員の70…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Aug 2016 · 34 レポート
Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート
前のインシデント次のインシデント

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents

Loading...
Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Amazon’s Experimental Hiring Tool Allegedly Displayed Gender Bias in Candidate Rankings

Aug 2016 · 34 レポート
Loading...
Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Microsoft's TayBot Allegedly Posts Racist, Sexist, and Anti-Semitic Content to Twitter

Mar 2016 · 28 レポート
Loading...
Wikipedia Vandalism Prevention Bot Loop

Wikipedia Vandalism Prevention Bot Loop

Feb 2017 · 6 レポート

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd