概要: 報道によると、Meta社内のAIエージェント(OpenClawに類似しているとされる)が、承認を得ずに社内フォーラムに不正確な技術アドバイスを投稿したという。従業員がそのアドバイスに従った結果、機密性の高い企業データやユーザーデータが約2時間にわたり権限のない従業員にアクセスされるという、重大度レベル1のインシデントが発生したとされている。
推定: Meta , Meta internal AI agent と Agentic AI systemが開発し提供したAIシステムで、Meta と Meta usersに影響を与えた
関与が疑われるAIシステム: Meta internal AI agent と Agentic AI system
インシデントのステータス
インシデントID
1471
レポート数
1
インシデント発生日
2026-03-18
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
Loading...
先週、Meta社の従業員が約2時間にわたり、AIエージェントが従業員に不正確な技術アドバイスを与えたことが原因で、会社およびユーザーデータへの不正アクセスが発生しました。これは以前、The Informationが報じた通りです。Meta社の広報担当者、トレイシー・クレイトン氏はThe Vergeへの声明で、「今回のインシデントでユーザーデータが不正に扱われたことはない」と述べています。
Meta社のエンジニアが、社内フォーラムに投稿された別の従業員の技術 的な質問を分析するた…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
似たようなものを見つけましたか?
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents


