Description: Amazon's Alexa was found to provide politically biased responses when asked about the 2024 presidential candidates. It refused to give reasons to vote for Donald Trump, citing neutrality, while offering detailed endorsements for Kamala Harris. Amazon labeled the discrepancy an "error" and reportedly corrected it.
推定: Amazonが開発し、Alexa Device Ownersが提供したAIシステムで、Alexa Device Owners , Donald Trump presidential campaign と Donald Trump supportersに影響を与えた
インシデントのステータス
インシデントID
778
レポート数
2
インシデント発生日
2024-09-04
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
theregister.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-It would be perfectly reasonable to expect Amazon's digital assistant Alexa to decline to state opinions about the 2024 presidential race, but up until recently, that assumption would have been incorrect.
When asked to give re…
washingtonpost.com · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
translated-ja-Software intended to make Amazon’s voice assistant Alexa smarter was behind a viral incident in which the digital helper appeared to favor Kamala Harris over Donald Trump, internal documents obtained by The Washington Post sho…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents