Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5314

Incidents associés

Incident 6396 Rapports
Air Canada Chatbot Reportedly Provides Inaccurate Bereavement Fare Information, Leading to Customer Overpayment

Loading...
Les assureurs commencent à couvrir les pertes liées aux accidents liés à l'IA
pymnts.com · 2025

Lloyd's of London a lancé un produit d'assurance destiné aux entreprises confrontées à des dysfonctionnements liés à l'intelligence artificielle (IA).

Comme l'a rapporté le Financial Times (FT) dimanche 11 mai, ce lancement intervient alors que le secteur de l'assurance tente de capitaliser sur les inquiétudes concernant les risques de pertes liés aux erreurs ou aux hallucinations des chatbots IA.

Ces polices sont proposées par la start-up Armilla et couvriront les frais de justice engagés contre une entreprise si elle est poursuivie par un client ou un tiers lésé par un produit d'IA peu performant, selon le rapport.

Comme l'a souligné le Financial Times, si les entreprises ont adopté l'IA pour gagner en efficacité, certains outils, comme les robots de service client, ont généré des erreurs embarrassantes et coûteuses, dues à des hallucinations ou lorsqu'un modèle d'IA invente des choses mais fournit ces informations avec confiance.

Comme l'a écrit PYMNTS, les conséquences d'une action sur la base d'informations hallucinées peuvent être graves, entraînant des décisions erronées, des pertes financières et une atteinte à la réputation de l'entreprise. La responsabilité des systèmes d'IA soulève également des questions complexes.

« Si vous retirez un humain d'un processus ou si l'humain rejette sa responsabilité sur l'IA, qui sera tenu responsable des erreurs ? » a demandé Kelwin Fernandes, PDG de NILG.AI, une entreprise spécialisée dans les solutions d'IA, lors d'une interview accordée à PYMNTS la semaine dernière.

Dans de nombreux cas, c'est l'entreprise à l'origine du chatbot qui est blâmée. Par exemple, Virgin Money a présenté des excuses plus tôt cette année lorsque son chatbot a réprimandé un client pour avoir utilisé le mot « virgin ». Et Air Canada s'est retrouvée devant les tribunaux l'année dernière lorsque son chatbot a inventé une réduction lors d'une conversation avec un client.

Selon le rapport du Financial Times, Armilla a déclaré que la perte liée à la vente des billets à prix réduit aurait été couverte par sa police d'assurance si les performances du chatbot d'Air Canada s'étaient avérées inférieures aux attentes.

Par ailleurs, PYMNTS a exploré les efforts internes de Lloyds Bank pour adopter l'IA au milieu des inquiétudes concernant des hallucinations dans un rapport publié plus tôt cette année.

« C'était un sujet qui nous préoccupait beaucoup, probablement pendant les 12 ou 18 premiers mois », a déclaré Ranil Boteju, directeur des données et de l'analyse de Lloyds Bank, lors d'une table ronde Google sur l'IA.

L'entreprise a décidé que « tant que nous n'aurons pas confiance dans les garde-fous, nous n'exposerons aucune des capacités d'IA générative directement aux clients ».

Au début, Lloyds s'est concentré sur l'efficacité du back-office comme premiers cas d'utilisation, ou bien elle disposait d'un travailleur humain sur place pour surveiller les activités.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd