概要: 2025年4月、キアヌ・リーブスとイーロン・マスクによるAIに関するテレビ討論を映したとされる動画がインターネット上で拡散しました。YouTubeチャンネル「Voices of Change」に投稿されたこの動画は、AIが生成した音声と映像を用いて討論を模倣したものとされています。独立した分析により、音声と映像にディープフェイクの痕跡が見られ、討論の存在を裏付ける信頼できる証拠は見つかりませんでした。
Alleged: Unknown deepfake technology developers と Unknown voice cloning technology developers developed an AI system deployed by Voices of Change と Unknown actors, which harmed Keanu Reeves , General public と Elon Musk.
関与が疑われるAIシステム: Unknown voice cloning technology , Unknown deepfake technology と Social media platforms
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Intentional