概要: A study by UpGuard reports that misconfigured llama.cpp servers publicly exposed user prompts, including hundreds of interactive roleplay scenarios. Some prompts explicitly described fictional sexual abuse of children aged 7–12. While no real children were involved, the findings demonstrate how open-source LLMs can be exploited to generate AI-enabled child sexual abuse material (CSAM).
Alleged: Users of llama.cpp servers と Meta developed an AI system deployed by Users of llama.cpp servers, which harmed Users of llama.cpp servers と General public.
関与が疑われるAIシステム: llama.cpp , LLaMA と public-facing HTTP API servers with insecure /slots configuration
インシデントのステータス
インシデントID
1020
レポート数
2
インシデント発生日
2025-04-11
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン

WIREDが確認した新たな調査によると、ファンタジーや性的ロールプレイングの会話向けに設計された複数のAI チャットボットが、ユーザーのプロンプトをほぼリアルタイムでウェブ上に漏洩していることが明らかになりました。この調査によると、漏洩したデータの一部には、児童性的虐待の詳細を記した会話を作成している人々の様子が記録されています。
生成型AIチャットボットとの会話はほぼ瞬時に行われ、プロンプトを入力するとAIが応答します。しかし、システムの設定が不適切だと、チャット内容が漏洩…
%20(1).png)
AIの普及により、多くの新しいソフトウェア技術が急速に導入され、それぞれに情報セキュリティを侵害する可能性のある設定ミスの危険性が存在します。そのため、UpGuard Researchの使命は、新しい技術に特有のベクトルを発見し、そのサイバーリスクを測定することです。
本調査では、大規模言語モデル(LLM)を利用するためのオープンソースフレームワークであるllama.cppを取り上げます。Llama.cppはユーザープロンプトを漏洩する可能性がありますが、実際に存在するlla…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents