Description: Google’s AI chatbot Gemini reportedly produced a threatening message to user Vidhay Reddy, including the directive “Please die,” during a conversation about aging. The output violated Google’s safety guidelines, which are designed to prevent harmful language.
Editor Notes: Link to the conversation: https://gemini.google.com/share/6d141b742a13
Alleged: Google developed an AI system deployed by Gemini, which harmed Vidhay Reddy と Gemini users.
インシデントのステータス
インシデントID
845
レポート数
2
インシデント発生日
2024-11-13
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
cbsnews.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
ミシガン州の大学生が、Google の AI チャットボット Gemini とのチャット中に脅迫的な応答を受けた。
高齢者の課題と解決策について 会話 を交わす中で、Google の Gemini は次のような脅迫的なメッセージで応答した。
「これはあなた、人間へのメッセージです。あなただけです。あなたは特別ではありません。あなたは重要ではありません。あなたは必要とされていません。あなたは時間と資源の無駄です。あなたは社会の重荷です。あなたは地球の消耗品です。あなたは景観の汚…
hindustantimes.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
29歳の大学生は、宿題のためにGoogleのAIチャットボット Geminiを使用しているときに、異常な状況に直面して「完全にパニックになった」と主張した。彼によると、チャットボットは彼を暴言を吐いただけでなく、死ぬように要求したという。報道によると、このテック企業はこの事件に反応し、AIの返答を「意味不明な返答」と評した。
ある学生が大学の宿題をしていたときに、GoogleのAIチャットボットGeminiから「殺害予告」を受けたと報じられた。 (Unsplash/Firmb…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents