Incidente 778: Alexa de Amazon muestra un error de preferencia política en las consultas sobre la carrera presidencial entre Trump y Harris
Descripción: Se descubrió que Alexa de Amazon ofrecía respuestas políticamente sesgadas al ser preguntada sobre los candidatos presidenciales de 2024. Se negó a justificar su voto por Donald Trump, alegando neutralidad, mientras que ofreció apoyos detallados a Kamala Harris. Amazon calificó la discrepancia como un "error" y, según se informa, la corrigió.
Entidades
Ver todas las entidadesAlleged: Amazon developed an AI system deployed by Alexa Device Owners, which harmed Alexa Device Owners , Donald Trump presidential campaign y Donald Trump supporters.
Estadísticas de incidentes
Risk Subdomain
A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
3.1. False or misleading information
Risk Domain
The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
- Misinformation
Entity
Which, if any, entity is presented as the main cause of the risk
AI
Timing
The stage in the AI lifecycle at which the risk is presented as occurring
Post-deployment
Intent
Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
Unintentional
Informes del Incidente
Cronología de Informes

Sería perfectamente razonable esperar que la asistente digital de Amazon, Alexa, se negara a expresar opiniones sobre la carrera presidencial de 2024, pero hasta hace poco, esa suposición habría sido incorrecta.
Cuando se le pidió que diera…
El software destinado a hacer más inteligente al asistente de voz de Amazon, Alexa, estuvo detrás de un incidente viral en el que el asistente digital pareció favorecer a Kamala Harris sobre Donald Trump, según muestran documentos internos …
Variantes
Una "Variante" es un incidente de IA similar a un caso conocido—tiene los mismos causantes, daños y sistema de IA. En lugar de enumerarlo por separado, lo agrupamos bajo el primer incidente informado. A diferencia de otros incidentes, las variantes no necesitan haber sido informadas fuera de la AIID. Obtenga más información del trabajo de investigación.
¿Has visto algo similar?
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 informes

Biased Sentiment Analysis
· 7 informes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents

TayBot
· 28 informes

Biased Sentiment Analysis
· 7 informes