Incidents associés
Lloyd's of London a lancé un produit d'assurance destiné aux entreprises confrontées à des dysfonctionnements liés à l'intelligence artificielle (IA).
Comme l'a rapporté le Financial Times (FT) dimanche 11 mai, ce lancement intervient alors que le secteur de l'assurance tente de capitaliser sur les inquiétudes concernant les risques de pertes liés aux erreurs ou aux hallucinations des chatbots IA.
Ces polices sont proposées par la start-up Armilla et couvriront les frais de justice engagés contre une entreprise si elle est poursuivie par un client ou un tiers lésé par un produit d'IA peu performant, selon le rapport.
Comme l'a souligné le Financial Times, si les entreprises ont adopté l'IA pour gagner en efficacité, certains outils, comme les robots de service client, ont généré des erreurs embarrassantes et coûteuses, dues à des hallucinations ou lorsqu'un modèle d'IA invente des choses mais fournit ces informations avec confiance.
Comme l'a écrit PYMNTS, les conséquences d'une action sur la base d'informations hallucinées peuvent être graves, entraînant des décisions erronées, des pertes financières et une atteinte à la réputation de l'entreprise. La responsabilité des systèmes d'IA soulève également des questions complexes.
« Si vous retirez un humain d'un processus ou si l'humain rejette sa responsabilité sur l'IA, qui sera tenu responsable des erreurs ? » a demandé Kelwin Fernandes, PDG de NILG.AI, une entreprise spécialisée dans les solutions d'IA, lors d'une interview accordée à PYMNTS la semaine dernière.
Dans de nombreux cas, c'est l'entreprise à l'origine du chatbot qui est blâmée. Par exemple, Virgin Money a présenté des excuses plus tôt cette année lorsque son chatbot a réprimandé un client pour avoir utilisé le mot « virgin ». Et Air Canada s'est retrouvée devant les tribunaux l'année dernière lorsque son chatbot a inventé une réduction lors d'une conversation avec un client.
Selon le rapport du Financial Times, Armilla a déclaré que la perte liée à la vente des billets à prix réduit aurait été couverte par sa police d'assurance si les performances du chatbot d'Air Canada s'étaient avérées inférieures aux attentes.
Par ailleurs, PYMNTS a exploré les efforts internes de Lloyds Bank pour adopter l'IA au milieu des inquiétudes concernant des hallucinations dans un rapport publié plus tôt cette année.
« C'était un sujet qui nous préoccupait beaucoup, probablement pendant les 12 ou 18 premiers mois », a déclaré Ranil Boteju, directeur des données et de l'analyse de Lloyds Bank, lors d'une table ronde Google sur l'IA.
L'entreprise a décidé que « tant que nous n'aurons pas confiance dans les garde-fous, nous n'exposerons aucune des capacités d'IA générative directement aux clients ».
Au début, Lloyds s'est concentré sur l'efficacité du back-office comme premiers cas d'utilisation, ou bien elle disposait d'un travailleur humain sur place pour surveiller les activités.