Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6091

Incidents associés

Incident 6396 Rapports
Air Canada Chatbot Reportedly Provides Inaccurate Bereavement Fare Information, Leading to Customer Overpayment

Loading...
Ce qu'Air Canada a perdu dans l'affaire « remarquable » du chatbot IA menteur
forbes.com · 2024

Dans un avertissement adressé aux transporteurs internationaux adoptant l'IA pour leurs plateformes de service client, Air Canada a perdu un procès en petites créances contre un passager en deuil après avoir tenté, en vain, de désavouer son chatbot basé sur l'IA.

Le passager a affirmé avoir été induit en erreur sur les règles de la compagnie aérienne relatives aux tarifs de deuil lorsque le chatbot a halluciné une réponse incompatible avec la politique de la compagnie. Le Tribunal des petites créances du Canada a donné raison au passager et lui a accordé 812,02 $ en dommages-intérêts et frais de justice.

Après le décès de sa grand-mère, le passager a utilisé le chatbot d'Air Canada sur le site web pour effectuer des recherches de vols, ce qui lui a suggéré de demander des tarifs de deuil rétroactivement. Le passager a pris une capture d'écran de la réponse du chatbot, qu'il a présentée au Tribunal. Le chatbot a indiqué au client :

« Air Canada offre des tarifs réduits pour les personnes en deuil si vous devez voyager en raison d’un décès imminent ou d’un décès dans votre famille immédiate. Si vous devez voyager immédiatement ou avez déjà voyagé et souhaitez soumettre votre billet pour bénéficier d’un tarif réduit pour les personnes en deuil, veuillez le faire dans les 90 jours suivant la date d’émission de votre billet en remplissant notre formulaire de demande de remboursement de billet. »

Le point crucial de l’affaire Air Canada résidait dans le texte souligné, qui était un lien direct vers la page de la politique tarifaire pour les personnes en deuil de la compagnie aérienne sur son site web. Cette page contredit le chatbot qui affirme : « Veuillez noter que notre politique pour les personnes en deuil n’autorise pas le remboursement de voyages déjà effectués. » Air Canada a soutenu que, comme le lien figurait dans la réponse du chatbot, le passager avait eu la possibilité de confirmer la réponse de ce dernier. Cependant, le tribunal a jugé qu'Air Canada n'avait pas expliqué pourquoi le passager ne devait pas se fier aux informations fournies sur son site web par son chatbot.

Le passager a appris plus tard, par l'intermédiaire d'employés d'Air Canada, qu'Air Canada n'acceptait pas les demandes de prestations de décès rétroactives, mais qu'elle avait tout de même demandé un remboursement parce qu'elle s'était fiée aux conseils du chatbot, selon les dossiers de l'affaire. Air Canada a offert un bon de vol de 200 $ pour satisfaire à la plainte du passager, ce que ce dernier a refusé.

La défaillance du chatbot constituait une « déclaration inexacte par négligence »

Le Tribunal a déterminé que la plainte contre Air Canada constituait une « déclaration inexacte par négligence ».

« Air Canada soutient qu'elle ne peut être tenue responsable des informations fournies par l'un de ses agents, préposés ou représentants, y compris un chatbot. Elle n'explique pas pourquoi elle estime que tel est le cas. En effet, Air Canada soutient que le chatbot est une entité juridique distincte, responsable de ses propres actions. Il s'agit d'une observation remarquable. Bien qu'un chatbot comporte une composante interactive, il ne constitue qu'une partie du site web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web. Peu importe que les informations proviennent d'une page statique ou d'un chatbot », a écrit Christopher C. Rivers, membre du Tribunal de résolution civile, dans sa décision.

Rivers a conclu qu'Air Canada « n'avait pas pris les précautions raisonnables pour garantir l'exactitude de son chatbot ». La compagnie aérienne n'a pas expliqué au Tribunal « pourquoi la page web intitulée "Voyage de deuil" était intrinsèquement plus fiable que son agent conversationnel. Elle n'explique pas non plus pourquoi les clients devraient vérifier les informations trouvées dans une section de son site web dans une autre section. »

Air Canada a-t-elle trop investi dans l'IA ?

Air Canada a lancé des laboratoires d'intelligence artificielle en 2019 afin d'utiliser l'IA pour améliorer ses opérations et l'expérience client.

« Les mégadonnées et l'IA constituent désormais une part importante de nos activités », a déclaré Calin Rovinescu, président-directeur général d'Air Canada, à Future Travel Experience.

L'année dernière, Air Canada a également annoncé de grands projets de chatbots vocaux de service client alimentés par l'IA, qui pourraient remplacer les personnes qui ont expliqué au passager en deuil impliqué dans l'affaire que le chatbot du site web était erroné.

Curieusement, comme le rapporte Business Traveler, Mel Crocker, vice-président et chef de l'information d'Air Canada, a reconnu que l'investissement initial de la compagnie aérienne dans un service client vocal optimisé par l'IA était plus élevé que la rémunération des employés de son centre d'appels pour répondre aux questions simples des clients.

« Nous ne nous lançons pas dans cette aventure avec l'intention de supprimer des emplois », a-t-il déclaré. « Mais si nous pouvons utiliser un humain pour résoudre un problème qui nécessite une intervention humaine et la technologie pour résoudre un problème automatisable, nous le ferons. »

Dans une déclaration qui semble aujourd'hui ironique, Crocker a ajouté : « Le principal avantage de l'IA pour nous est qu'elle améliore fondamentalement l'expérience client. Et des clients plus satisfaits signifient qu'ils voyagent davantage avec Air Canada. »

L'affaire portée devant la Cour des petites créances n'a pas coûté cher à Air Canada, mais elle n'a pas amélioré sa réputation en matière de service client. La compagnie aérienne aurait facilement pu payer au passager la différence de tarif pour le deuil.

Si Air Canada l'avait fait, elle n'aurait pas autant attiré l'attention sur le problème, car elle a cherché à comprendre ce qui avait poussé le chatbot à induire le client en erreur. Cependant, cette affaire a soulevé d'importantes questions et pourrait créer un précédent quant à la responsabilité des compagnies aériennes quant aux performances de leurs systèmes d'IA.

Droits des consommateurs face aux hallucinations de l'IA

Les outils d'IA sont vulnérables aux hallucinations, où ils semblent inventer des informations de manière inattendue.

« L'hallucination de l'IA est un phénomène dans lequel un grand modèle de langage (LLM) – souvent un chatbot génératif ou un outil de vision par ordinateur – perçoit des modèles ou des objets inexistants ou imperceptibles pour les observateurs humains, créant des résultats absurdes ou totalement inexacts », explique IBMIBM -2,5 % sur son site web.

WestJet, la concurrente d'Air Canada, a vécu un tel incident hallucinatoire en 2018. Son chatbot, Juliet, a mal interprété le commentaire élogieux d'une cliente satisfaite concernant les soins prodigués par un membre du personnel de cabine à sa bouture succulente et l'a orientée vers une ligne d'assistance téléphonique pour les cas de suicide. Aucun préjudice n'a été causé dans ce cas, et la cliente de la compagnie aérienne a trouvé la situation amusante.

Mais comme le montre l'incident plus récent d'Air Canada, les hallucinations provoquées par l'IA peuvent avoir un prix.

Bien que les compagnies aériennes ne soient pas des institutions financières, leur gestion des transactions importantes et des points et miles de fidélité, assimilables à des devises, les expose à des poursuites lorsqu'une IA hallucinante informe les consommateurs de manière erronée. Le Bureau de protection financière des consommateurs des États-Unis surveille de près l'utilisation de l'intelligence artificielle et son impact sur les droits des consommateurs.

Dans une étude publiée l'année dernière sur les chatbots bancaires, le CFPB a constaté que ces derniers peuvent aider à répondre aux questions simples des clients, mais que « leur efficacité diminue à mesure que les problèmes deviennent plus complexes ».

« L'analyse des plaintes des consommateurs et du marché actuel montre que certaines personnes subissent des conséquences négatives importantes en raison des limitations techniques des fonctionnalités des chatbots », ont-ils noté dans leur rapport. Les conséquences négatives pour le client sont nombreuses : perte de temps, sentiment d'immobilité et de frustration, réception d'informations inexactes et frais supplémentaires inutiles. Ces problèmes sont particulièrement prononcés lorsque les personnes ne peuvent pas obtenir une assistance personnalisée.

Le CFPB a également averti que « les institutions financières risquent de violer leurs obligations légales, d'éroder la confiance des clients et de leur porter préjudice en déployant la technologie des chatbots. Tout comme les processus qu'ils remplacent, les chatbots doivent se conformer à toutes les lois fédérales applicables en matière de financement des consommateurs, et les entités peuvent être tenues responsables de toute violation de ces lois. Les chatbots peuvent également présenter des risques pour la confidentialité et la sécurité. Une mauvaise conception des chatbots ou l'impossibilité pour les clients d'obtenir de l'aide peuvent entraîner des préjudices importants et miner considérablement la confiance des clients. »

Air Canada n'est pas la seule à utiliser l'IA pour répondre aux questions courantes de ses clients. De nombreuses compagnies aériennes et aéroports du monde entier ont intégré des chats et des bots automatisés à leur service client, directement sur leurs sites web, leurs applications et leurs réseaux sociaux populaires.

Mais comme la technologie n'est pas infaillible, les compagnies aériennes devront considérer leur exposition juridique et financière aux hallucinations de l'IA. Elles devront peut-être repenser jusqu'où l'IA peut les emmener à ce stade.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd