Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar
Descubrir
Enviar
  • Bienvenido a la AIID
  • Descubrir Incidentes
  • Vista espacial
  • Vista Tabular
  • Vista de lista
  • Entidades
  • Taxonomías
  • Enviar Informes de Incidentes
  • Ranking de Reportadores
  • Blog
  • Resumen de noticias de IA
  • Control de Riesgos
  • Incidente aleatorio
  • Registrarse
Colapsar

Problema 6091

Incidentes Asociados

Incidente 6396 Reportes
Air Canada Chatbot Reportedly Provides Inaccurate Bereavement Fare Information, Leading to Customer Overpayment

Loading...
Lo que Air Canada perdió en el caso del chatbot de inteligencia artificial mentiroso "notable"
forbes.com · 2024

En una advertencia a las aerolíneas globales que adoptan IA para sus plataformas de atención al cliente, Air Canada perdió un caso en un tribunal de reclamos menores contra un pasajero en duelo al intentar, sin éxito, desautorizar su chatbot con IA.

El pasajero alegó haber sido engañado sobre las normas de la aerolínea para las tarifas por duelo cuando el chatbot alucinó una respuesta incompatible con la política de la aerolínea. El Tribunal de reclamos menores de Canadá falló ante el tribunal y le otorgó 812,02 dólares por daños y perjuicios y costas judiciales.

Tras el fallecimiento de su abuela, el pasajero utilizó el chatbot de Air Canada en el sitio web para buscar vuelos, lo que le sugirió que podía solicitar tarifas por duelo retroactivamente. El pasajero capturó la respuesta del chatbot y la mostró al tribunal. El chatbot le informó al cliente:

"Air Canada ofrece tarifas reducidas por duelo si necesita viajar debido a un fallecimiento inminente o a un fallecimiento de un familiar directo... Si necesita viajar de inmediato o ya ha viajado y desea solicitar una tarifa reducida por duelo, hágalo dentro de los 90 días posteriores a la fecha de emisión de su boleto, completando nuestro formulario de Solicitud de Reembolso de Boletos".

El punto clave del caso de Air Canada residía en el texto subrayado, que era un enlace directo a la página de la Política de Tarifas por Duelo en el sitio web de la aerolínea. Esa página contradice la declaración del chatbot: "Tenga en cuenta que nuestra política de duelo no permite reembolsos por viajes ya realizados".

Air Canada argumentó que, dado que el enlace se proporcionó en la respuesta del chatbot, el pasajero tuvo la oportunidad de confirmarla. Sin embargo, el tribunal determinó que Air Canada no explicó por qué el pasajero no debía confiar en la información proporcionada por el chatbot en su sitio web.

El pasajero se enteró posteriormente, a través de empleados de Air Canada, de que Air Canada no aceptaba solicitudes de duelo retroactivas, pero aun así solicitó el reembolso porque "confiaron en el consejo del chatbot", según los registros del caso. Air Canada ofreció un cupón de vuelo de $200 para satisfacer la queja del pasajero, quien lo rechazó.

La falla del chatbot fue una "tergiversación negligente"

El Tribunal determinó que la demanda contra Air Canada constituyó una "tergiversación negligente".

"Air Canada argumenta que no se le puede responsabilizar por la información proporcionada por uno de sus agentes, empleados o representantes, incluido un chatbot. No explica por qué cree que es así. De hecho, Air Canada sugiere que el chatbot es una entidad legal independiente, responsable de sus propias acciones. Esta es una presentación notable. Si bien un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web. Es indiferente si la información proviene de una página estática o de un chatbot", escribió Christopher C. Rivers, miembro del Tribunal de Resolución Civil, en su decisión sobre el caso.

Rivers concluyó que Air Canada "no tomó las precauciones razonables para garantizar la precisión de su chatbot". La aerolínea no explicó al Tribunal por qué la página web titulada "Viajes por duelo" era inherentemente más confiable que su chatbot. Tampoco explica por qué los clientes deberían verificar la información que se encuentra en una sección de su sitio web en otra.

¿Ha invertido Air Canada demasiado en IA?

Air Canada implementó Laboratorios de Inteligencia Artificial en 2019 para aplicar la IA a la mejora de sus operaciones y la experiencia del cliente.

"El big data y la IA son ahora una parte importante de nuestro negocio", declaró Calin Rovinescu, presidente y director ejecutivo de Air Canada, a Future Travel Experience.

El año pasado, Air Canada también anunció importantes planes para chatbots de atención al cliente de voz basados en IA, que podrían reemplazar a quienes explicaron al pasajero en duelo que el chatbot del sitio web estaba equivocado.

Curiosamente, como se informó en Business Traveler, el vicepresidente y director de información de Air Canada, Mel Crocker, reconoció que la inversión inicial de la aerolínea en un servicio de atención al cliente de voz basado en IA es superior a la que se paga a los empleados de su centro de llamadas para que atiendan preguntas sencillas de los clientes.

"No nos embarcamos en esto con la intención de eliminar empleos", afirmó. "Pero si podemos usar a una persona para resolver algo que requiere un toque humano y la tecnología para resolver algo que se pueda automatizar, lo haremos".

En una declaración que ahora parece irónica, Crocker añadió: "El mayor beneficio de la IA para nosotros es que, fundamentalmente, crea una mejor experiencia para el cliente. Y unos clientes más satisfechos significan que viajan más con Air Canada".

El caso de reclamos menores no le costó mucho a Air Canada en términos de dinero, pero no mejoró la reputación de su servicio al cliente. La aerolínea podría fácilmente pagar al pasajero la diferencia de la tarifa por duelo.

Si Air Canada lo hubiera hecho, no habría llamado tanto la atención sobre el problema, ya que investigó qué llevó al chatbot a desinformar al cliente. Sin embargo, el caso planteó preguntas importantes y podría sentar un precedente sobre la responsabilidad de las aerolíneas por el rendimiento de sus sistemas impulsados por IA.

Derechos del consumidor frente a alucinaciones de IA

Las herramientas de IA son vulnerables a las alucinaciones, donde parecen inventar información de repente.

«La alucinación por IA es un fenómeno en el que un modelo de lenguaje extenso (LLM) —a menudo un chatbot de IA generativo o una herramienta de visión artificial— percibe patrones u objetos inexistentes o imperceptibles para los observadores humanos, lo que genera resultados absurdos o totalmente inexactos», explica IBM en su sitio web.

WestJet, la aerolínea rival de Air Canada, sufrió uno de estos incidentes alucinatorios en 2018. Su chatbot, Juliet, interpretó incorrectamente el comentario entusiasta de una clienta sobre la atención que un miembro de la tripulación de cabina le había dado a su suculento esqueje y la remitió a una línea de ayuda para el suicidio. En ese caso, no hubo daños, y la clienta de la aerolínea encontró la situación divertida.

Pero, como demuestra el reciente incidente de Air Canada, las alucinaciones con IA pueden tener un precio.

Si bien las aerolíneas no son instituciones financieras, su gestión de transacciones importantes y de puntos de fidelidad y millas, similares a las divisas, las hace vulnerables a responsabilidades legales cuando una IA alucinante desinforma a los consumidores. La Oficina para la Protección Financiera del Consumidor de EE. UU. monitorea de cerca el uso de la inteligencia artificial y el impacto de esta tecnología en los derechos de los consumidores.

En una investigación publicada el año pasado sobre chatbots bancarios, la CFPB descubrió que estos pueden ayudar a responder preguntas básicas de los clientes, pero su eficacia disminuye a medida que los problemas se vuelven más complejos.

"La revisión de las quejas de los consumidores y del mercado actual muestra que algunas personas experimentan consecuencias negativas significativas debido a las limitaciones técnicas de la funcionalidad de los chatbots", señalaron en su informe. "Existen diversos tipos de consecuencias negativas para el cliente, como pérdida de tiempo, sentirse atascado y frustrado, recibir información inexacta y pagar más por comisiones basura. Estos problemas son especialmente graves cuando las personas no pueden obtener asistencia personalizada para sus problemas".

La CFPB también advirtió: "Las instituciones financieras corren el riesgo de incumplir obligaciones legales, socavar la confianza del cliente y perjudicar al consumidor al implementar la tecnología de chatbots. Al igual que los procesos que reemplazan, los chatbots deben cumplir con todas las leyes federales financieras aplicables en materia de consumo, y las entidades pueden ser responsables de infringir dichas leyes si no lo hacen. Los chatbots también pueden plantear ciertos riesgos de privacidad y seguridad. Cuando los chatbots están mal diseñados o cuando los clientes no pueden obtener asistencia, pueden producirse daños generalizados y la confianza del cliente puede verse significativamente socavada".

Air Canada no es la única empresa que utiliza la IA para responder a las consultas habituales de los clientes. Muchas aerolíneas y aeropuertos de todo el mundo han introducido chats automatizados y bots en su flujo de atención al cliente, directamente en sus sitios web, aplicaciones y redes sociales populares.

Pero como la tecnología no es infalible, las aerolíneas deberán considerar su exposición legal y financiera a las alucinaciones de la IA. Es posible que deban replantearse hasta dónde puede llegar la IA en esta etapa.

Leer la Fuente

Investigación

  • Definición de un “Incidente de IA”
  • Definición de una “Respuesta a incidentes de IA”
  • Hoja de ruta de la base de datos
  • Trabajo relacionado
  • Descargar Base de Datos Completa

Proyecto y Comunidad

  • Acerca de
  • Contactar y Seguir
  • Aplicaciones y resúmenes
  • Guía del editor

Incidencias

  • Todos los incidentes en forma de lista
  • Incidentes marcados
  • Cola de envío
  • Vista de clasificaciones
  • Taxonomías

2024 - AI Incident Database

  • Condiciones de uso
  • Política de privacidad
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd