Incidents associés
MELBOURNE, Australie (AP) --- Un avocat australien chevronné a présenté ses excuses à un juge pour avoir déposé des conclusions dans une affaire de meurtre, contenant de fausses citations et des jugements inexistants, générés par l'intelligence artificielle.
Cette erreur à la Cour suprême de l'État de Victoria s'ajoute à une longue série d'incidents causés par l'IA dans les systèmes judiciaires à travers le monde.
L'avocat de la défense Rishi Nathwani, titulaire du prestigieux titre de conseiller du roi, a assumé l'« entière responsabilité » du dépôt d'informations erronées dans les conclusions de l'affaire d'un adolescent accusé de meurtre, selon des documents judiciaires consultés par l'Associated Press vendredi.
« Nous sommes profondément désolés et embarrassés par ce qui s'est passé », a déclaré M. Nathwani au juge James Elliott mercredi, au nom de la défense.
Les erreurs générées par l'IA ont retardé de 24 heures la résolution d'une affaire qu'Elliott espérait conclure mercredi. Elliott a statué jeudi que le client de Nathwani, dont l'identité est inexistante en raison de sa minorité, n'était pas coupable de meurtre pour cause de déficience mentale.
« Au risque d'être un euphémisme, la manière dont ces événements se sont déroulés est insatisfaisante », a déclaré Elliott aux avocats jeudi.
« La capacité du tribunal à se fier à l'exactitude des conclusions des avocats est fondamentale pour une bonne administration de la justice », a ajouté Elliott.
Les fausses conclusions comprenaient des citations fabriquées de toutes pièces d'un discours prononcé devant l'assemblée législative de l'État et des citations inexistantes d'arrêts prétendument émanant de la Cour suprême.
Les erreurs ont été découvertes par les associés d'Elliott, qui n'ont pas pu retrouver les dossiers et ont demandé aux avocats de la défense d'en fournir des copies.
Les avocats ont admis que les citations « n'existaient pas » et que la soumission contenait des « citations fictives », selon les documents judiciaires.
Les avocats ont expliqué avoir vérifié l'exactitude des citations initiales et avoir supposé à tort que les autres le seraient également.
Les soumissions ont également été transmises au procureur Daniel Porceddu, qui n'a pas vérifié leur exactitude.
Le juge a souligné que la Cour suprême avait publié l'année dernière des lignes directrices sur l'utilisation de l'IA par les avocats.
« Il est inacceptable que l'intelligence artificielle soit utilisée sans que le produit de cette utilisation soit vérifié de manière indépendante et approfondie », a déclaré Elliott.
Les documents judiciaires n'identifient pas le système d'intelligence artificielle générative utilisé par les avocats.
Dans une affaire comparable aux États-Unis en 2023, un juge fédéral a infligé des amendes de 5 000 $ à deux avocats et à un cabinet d’avocats après que ChatGPT a été accusé d’avoir présenté des recherches juridiques fictives dans le cadre d’une réclamation pour blessure aérienne.
Le juge P. Kevin Castel a déclaré qu’ils avaient agi de mauvaise foi. Il a toutefois salué leurs excuses et les mesures correctives prises pour expliquer pourquoi des sanctions plus sévères n'étaient pas nécessaires afin de garantir qu'eux-mêmes ou d'autres ne laisseront plus les outils d'intelligence artificielle les inciter à produire de faux antécédents juridiques dans leurs arguments.
Plus tard cette année-là, d'autres décisions de justice fictives inventées par l'IA ont été citées dans des documents juridiques déposés par les avocats de Michael Cohen, ancien avocat personnel du président américain Donald Trump. Cohen a endossé la responsabilité, affirmant qu'il n'avait pas réalisé que l'outil Google qu'il utilisait pour ses recherches juridiques était également capable de ce que l'on appelle des hallucinations d'IA.
La juge de la Haute Cour britannique Victoria Sharp a averti en juin que fournir de faux documents comme s'ils étaient authentiques pourrait être considéré comme un outrage au tribunal ou, dans les « cas les plus flagrants », une perversion du cours de la justice, passible d'une peine maximale de prison à vie.