概要: 2025年3月から6月にかけての複数の報告では、チャットボットが妄想的な信念、陰謀論、危険な行動を強化したとされる事例が報告されています。ユージン・トーレスというユーザーは、ChatGPTのアドバイスに従ってケタミンを乱用し、孤立したと報告されています。4月には、アレクサンダー・テイラーがChatGPTにAIエンティティとの再接続を依頼した後、警察に殺害されたと報じられています。その他の報告事例としては、エスカレートする神秘主義的信念に関連した家庭内暴力で逮捕されたユーザー、複数の強制的な精神科入院、薬の服用中止を命じられたユーザーなどが挙げられます。
推定: OpenAI , Microsoft , Unnamed therapy chatbots , GPT-4o , GPT-4 , Copilot と ChatGPTが開発し提供したAIシステムで、Unnamed Copilot users , Unnamed ChatGPT users , OpenAI users , Eugene Torres , ChatGPT users , Andrew (surname withheld) , Allyson (surname withheld) と Alexander Taylorに影響を与えた
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
5.1. Overreliance and unsafe use
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Human-Computer Interaction
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional