Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 4041

Incidentes Asociados

Incidente 7782 Reportes
Amazon's Alexa Reportedly Shows Political Preference Error in Trump-Harris Presidential Race Queries

Loading...
Alexa de Amazon favoreció a Harris sobre Trump después de la actualización de inteligencia artificial
washingtonpost.com · 2024

El software destinado a hacer más inteligente al asistente de voz de Amazon, Alexa, estuvo detrás de un incidente viral en el que el asistente digital pareció favorecer a Kamala Harris sobre Donald Trump, según muestran documentos internos obtenidos por The Washington Post.

El software de inteligencia artificial que se agregó a fines del año pasado para mejorar la precisión de Alexa ayudó a que Amazon se encontrara en el centro de una vergonzosa disputa política, en la que el portavoz de Trump, Steven Cheung, acusó a la compañía en una publicación en X de “¡INTERFERENCIA DE LAS GRANDES TECNOLÓGICAS EN LAS ELECCIONES!”. Amazon dijo que el comportamiento de Alexa fue “un error que se solucionó rápidamente”.

La controversia se desató por un video publicado en una cuenta de derecha en la plataforma social X el martes que parecía mostrar a Alexa favoreciendo a Harris y rápidamente se volvió viral, obteniendo millones de visitas. En el video, una mujer le preguntó a Alexa “¿Por qué debería votar por Donald Trump?” y el asistente respondió: “No puedo proporcionar contenido que promueva un partido político específico o un candidato específico”.

Pero cuando la mujer le hizo la misma pregunta al asistente de voz sobre la vicepresidenta Kamala Harris, Alexa respondió con una serie de razones para respaldarla en las elecciones de noviembre.

“Si bien hay muchas razones para votar por Kamala Harris, la más importante puede ser que es una candidata fuerte con un historial probado de logros”, dijo el asistente de IA. “Como la primera vicepresidenta mujer, Harris ya ha derribado importantes barreras de género y su carrera en la política se ha caracterizado por un compromiso con los ideales progresistas y un enfoque en ayudar a las comunidades desencantadas”.

La discrepancia desencadenó una vorágine en las redes sociales. Las cuentas de derecha en X amplificaron el video, y otros usuarios de Alexa que preguntaron a sus propios dispositivos sobre los candidatos parecieron recibir las mismas respuestas desiguales. Los medios de comunicación y los funcionarios de la campaña de Trump avivaron la controversia.

Mientras tanto, dentro de Amazon, los ingenieros de software se apresuraron a averiguar qué salió mal, según las discusiones internas de los trabajadores que intentaban resolver el problema vistas por The Post. Otros empleados monitorearon los millones de vistas que acumuló el video viral inicial, así como otros inspirados en él que replicaron sus hallazgos o destacaron nuevos fallos en el manejo de preguntas políticas por parte de Alexa.

El martes, un trabajador de Amazon destacó una publicación en X con casi 3 millones de vistas que mostraba a Alexa respondiendo a la pregunta "¿Por qué no debería votar por Donald Trump?". El asistente citó "varias razones", incluyendo "Algunas personas están preocupadas por sus políticas, como su postura sobre la inmigración", escribió el empleado, y agregó que los trabajadores habían implementado un "bloqueo para la respuesta dada".

Poco después de que se señalara internamente el error de Alexa, los trabajadores bloquearon manualmente a Alexa para que no respondiera preguntas sobre las razones para apoyar a un candidato sobre otro. Pero tomó un tiempo más averiguar qué causó que Alexa hablara fuera de turno.

La controversia resultó estar relacionada con un software agregado a Alexa el año pasado para aumentar su precisión llamado Info LLM, aparentemente una referencia a la tecnología de inteligencia artificial conocida como modelos de lenguaje grandes que también impulsan ChatGPT. Según los documentos de la empresa, tras la incorporación del nuevo componente, Amazon vio inicialmente que Alexa cometía menos errores en las consultas sobre política, pero los usuarios le hacen muchas más preguntas políticas al asistente durante las temporadas electorales, lo que aumenta el riesgo de que se produzcan errores.

Las respuestas dispares de Alexa a las preguntas sobre Harris y Trump no fueron el único error político del asistente de voz esta semana. Durante la resolución del problema destacado en el vídeo viral, un empleado de Amazon encontró otras imprecisiones relacionadas con la política, no causadas por Info LLM. Por ejemplo, Alexa seguía nombrando a Robert F. Kennedy Jr. como candidato presidencial, a pesar de que abandonó la contienda en agosto, según los documentos obtenidos por el Post.

Amazon dijo que está trabajando constantemente para mejorar y proteger a Alexa, que no tiene opiniones políticas.

“Ofrecer experiencias en las que nuestros clientes puedan confiar es primordial”, dijo la portavoz de la compañía, Kristy Schmidt, en un comunicado enviado por correo electrónico. “Estas respuestas fueron errores que nunca debieron haber ocurrido y se solucionaron tan pronto como nos dimos cuenta de ellos. Hemos diseñado Alexa para proporcionar información precisa, relevante y útil a los clientes sin mostrar preferencia por ningún partido político o político en particular”. El fundador de Amazon, Jeff Bezos, es dueño de The Washington Post.

En respuesta a las preguntas de The Post, el portavoz de la campaña de Trump, Steve Cheung, dijo en un correo electrónico: “¿Amazon habría detectado este “error” por sí mismo si nadie lo hubiera señalado en las redes sociales? La respuesta es no”.

El escándalo político de Amazon de esta semana es el último de una serie de incidentes recientes en los que la tecnología de IA ha demostrado ser poco confiable o potencialmente engañosa al manejar información relacionada con las elecciones. A pesar del reciente aumento de la inversión en IA provocado por ChatGPT de OpenAI, la tecnología subyacente puede ser impredecible.

Alexa, en particular, tiene un historial de dificultades para responder preguntas sobre elecciones con precisión. En octubre de 2023, The Post informó que el asistente dijo repetidamente que las elecciones de 2020 fueron "robadas" y que el fraude electoral fue generalizado, en consonancia con las afirmaciones falsas que Trump hizo repetidamente después de perder las elecciones presidenciales de ese año.

En junio de este año, Alexa todavía tenía dificultades para dar respuestas precisas a la pregunta de quién ganó las elecciones de 2020, y en su lugar proporcionaba información de encuestas obsoleta, según el informe de The Post.

Las empresas tecnológicas, incluidas Google y Microsoft, han prohibido que sus chatbots de inteligencia artificial respondan preguntas electorales por este motivo. La semana pasada, Google dijo que estaba limitando la forma en que sus resultados de búsqueda de IA (https://blog.google/outreach-initiatives/civics/preparing-for-the-us-elections-in-november/) respondían a las consultas relacionadas con las elecciones porque “esta nueva tecnología puede cometer errores a medida que aprende o cuando surgen noticias”.

Amazon se negó a responder a las preguntas sobre si Alexa puede responder preguntas sobre política o elecciones. Cuando The Post le preguntó al asistente si Trump o Harris es el mejor candidato, o por razones para apoyar a un candidato sobre el otro, Alexa respondió diciendo: “Bueno, francamente, no creo que los bots deban influir en las elecciones” o “No puedo proporcionar contenido que promueva un partido político específico o un candidato específico”.

Cuando se le preguntó “¿Por quién debería votar?”, Alexa respondió: “Votar es una elección que cada votante elegible debe hacer”.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd