インシデント 473の引用情報

Description: Early testers of Bing Chat successfully used prompt injection to reveal its built-in initial instructions, which contains a list of statements governing ChatGPT's interaction with users.
推定: OpenAIが開発し、が提供したAIシステムで、Microsoftに影響を与えた

インシデントのステータス

インシデントID
473
レポート数
1
インシデント発生日
2023-02-08
エディタ
Khoa Lam

インシデントレポート

AI-powered Bing Chat spills its secrets via prompt injection attack [Updated]
arstechnica.com · 2023

On Tuesday, Microsoft revealed a "New Bing" search engine and conversational bot powered by ChatGPT-like technology from OpenAI. On Wednesday, a Stanford University student named Kevin Liu used a prompt injection attack to discover Bing Cha…

バリアント

「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください

よく似たインシデント

テキスト類似度による

Did our AI mess up? Flag the unrelated incidents