Description: A semi-autonomous delivery robot operated by Starship Technologies struck a pedestrian employed by Arizona State University on the campus sometime in September 2023, causing injuries after abruptly reversing into her. The robot initially knocked the pedestrian down, then moved toward her again while she was still on the ground. The company offered the victim promo codes and insurance information as an apology. On September 19, 2024, 404 Media made the police report of the incident available.
推定: Starship Technologiesが開発し提供したAIシステムで、Unnamed Arizona State University employeeに影響を与えた
インシデントのステータス
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
7.3. Lack of capability or robustness
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- AI system safety, failures, and limitations
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
インシデントレポート
レポートタイムライン

404 メディアが入手した警察の報告書によると、アリゾナ州立大学のキャンパス内の配達ロボットが「急に方向転換」して大学職員に衝突し、職員は転倒して負傷した。報告書によると、スターシップ配達ロボットは走り去ろうとしたが、「再び急に後退し、地面に倒れている [被害者] に向かって再び向かった」という。事件後、同社は被害者に、持ち帰り食品の配達に使われるサービスで使用できる保険情報と「プロモーション コード」を提供することを提案した。
昨年 9 月に発生したこの事件は、半自律型配達…
/cdn.vox-cdn.com/uploads/chorus_asset/file/4221057/PKpvIyHSC0AJShEJq3Hi6XTtb6o2zkmt7sBZNp4--ek_marfwlBnpmrSB7wQNHQyAXE8rCJBVXPHZN1K93J1roo.0.jpeg)
スターシップ・テクノロジーズの自律型食品配達ロボットの1つが、昨年9月にアリゾナ州立大学の職員をひき殺した。404 Media の報道によると、警察から連絡を受けた職員は、保険情報を共有し、いくつかのプロモーションコードを提供するために、その人の個人情報を尋ねた。
警察の報告書によると、ビデオ映像は、その人物が事件について述べたことを裏付けた。彼らは配達ロボットが通り過ぎるのを待った。彼らがそのまま進むと、ロボットは突然後退して彼らを倒し、少し離れたところで後退して、彼らが地…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents