ロイズ・オブ・ロンドンは、人工知能(AI)関連の不具合に対処する企業向けの保険商品を発表しました。
フィナンシャル・タイムズ(FT)が5月11日(日)に報じたように、保険業界はAIチャットボットのエラーや幻覚による損失リスクへの懸念につけ込もうとしています。
この保険はArmillaというスタートアップ企業を通じて提供され、パフォーマンスの低いAI製品によって被害を受けた顧客やその他の第三者から企業が訴えられた場合、訴訟費用を補償すると報じられています。
FTが指摘したように、企業は効率性向上のためにAIを導入していますが、カスタマーサービスボットなどの一部のツールは、幻覚やAIモデルが作り出した情報に自信を持ち、それを提供したことで、恥ずか しい、そして大きな損失をもたらすミスを生み出しています。
PYMNTSが報じているように、幻覚情報に基づいて行動するは深刻な結果をもたらす可能性があり、誤った意思決定、経済的損失、企業の評判の失墜につながります。AIシステムが関与する場合の説明責任についても難しい問題があります。
「プロセスから人間を排除した場合、あるいは人間がAIに責任を押し付けた場合、誰がそのミスの責任を負うのでしょうか?」 AIソリューションを専門とする企業NILG.AIのCEOであるケルウィン・フェルナンデス氏は、先週のPYMNTSとのインタビューでこう尋ねました。
多くの場合、責任を問われるのはチャットボットを運営する企業です。例えば、ヴァージン・マネーは今年初め、チャットボットが「ヴァージン」という言葉を使ったことで顧客を叱責したことについて謝罪しました。また、エア・カナダは昨年、チャットボットが顧客との会話の中で割引を捏造したとして法廷闘争に発展しました。フィナンシャルタイムズの報道によると、アルミラ氏は、エア・カナダのチャットボットのパフォーマンスが期待を下回っていた場合、割引価格での航空券販売による損失は保険でカバーされていただろうと述べた。
一方、PYMNTSは今年初めのレポートで、幻覚への懸念が高まる中、ロイズ銀行がAI導入に向けた社内の取り 組みを調査した。
ロイズ銀行の最高データ・アナリティクス責任者であるラニル・ボテジュ氏Ranil Boteju氏は、GoogleのAIに関する円卓会議で、「おそらく最初の12ヶ月から18ヶ月は、それが非常に懸念事項でした」と述べた。
同社は、「ガードレールに自信が持てるようになるまでは、生成AI機能を顧客に直接公開しない」と決定しました。
当初、ロイズはバックオフィスの効率化を最初のユースケースとして重視し、業務を監視するために人間の作業員を配置していました。