Un juge local a ordonné une enquête sur la conduite d'avocats ayant eu recours à l'intelligence artificielle générative (GenAI) pour présenter des citations inexistantes devant un tribunal.
Ceci fait suite à une affaire portée devant la Haute Cour de Johannesburg, où Northbound Processing a déposé une demande urgente de mesures provisoires afin d'obliger l'autorité sud-africaine de régulation des diamants et des métaux précieux à libérer une licence de raffinage déjà délivrée, mais suspendue sous certaines conditions.
Cette licence était liée à l'acquisition par Northbound d'une entreprise de transformation auprès de Rappa Resources en 2024. L'autorité de régulation exigeait la confirmation de la restitution de la licence de Rappa avant de libérer celle de Northbound.
Dans des documents judiciaires consultés par ITWeb lundi, le juge suppléant DJ Smit a souligné qu'un aspect troublant de cette affaire était l'inclusion de fausses citations dans les arguments juridiques de Northbound, que le tribunal a attribuées à des résultats « hallucinés » générés par des outils d'IA.
Il a critiqué cette pratique, soulignant les dangers de se fier à GenAI sans vérification adéquate.
L'absence de références a porté atteinte à la crédibilité des conclusions de Northbound et a été constatée comme une utilisation abusive regrettable de l'IA dans les procédures judiciaires.
Lors de la préparation du jugement, Smit a découvert que deux affaires citées dans les conclusions de Northbound Processing – présentées à l'appui d'arguments importants relatifs à la demande de mandamus – étaient fictives.
Le juge intérimaire a sollicité des éclaircissements auprès des parties, et l'avocat adjoint de Northbound, Giles Barclay-Beuthin, a d'abord expliqué que la version des conclusions avait été incorrecte, attribuant le problème à une confusion causée par des citations abrégées utilisées lors de la rédaction. Il a également fourni une version corrigée dans laquelle les paragraphes problématiques ont été remplacés.
Cependant, l'avocat des défendeurs adverses a souligné que la version révisée contenait deux citations incorrectes supplémentaires. Il a également mis en doute l'exactitude des références juridiques existantes dans les arguments qu'elles étaient censées étayer. L'avocat de Northbound a eu une nouvelle chance de répondre.
Pas si génial que ça
En réponse à une question directe du tribunal, Barclay-Beuthin a reconnu que les citations inexistantes provenaient probablement d'un outil d'IA.
Il a déclaré qu'en raison de délais serrés – notamment l'urgence de l'affaire, le temps limité pour finaliser les conclusions et le retrait anticipé d'un autre avocat junior – il avait utilisé un outil appelé « Legal Genius », prétendument basé uniquement sur des sources juridiques sud-africaines.
Le juge par intérim a demandé si cette situation concordait avec une affaire récente dans la division du KwaZulu-Natal (Mavundla), où des cas inexistants avaient été cités sur la base de recherches menées par un candidat avocat.
Dans l'affaire Mavundla contre MEC : Département du gouvernement coopératif et des affaires traditionnelles du KwaZulu-Natal, la Haute Cour de Pietermaritzburg a examiné les conséquences de la soumission par des praticiens du droit de fausses citations de cas, probablement générées par l'IA, dans leurs documents judiciaires.
Selon le cabinet d'avocats Michalsons, le jugement Mavundla constitue un avertissement aux professionnels du droit concernant l'utilisation aveugle des outils d'IA dans la recherche et la rédaction juridiques. « Il démontre pourquoi une vérification approfondie des faits demeure essentielle, quelle que soit la source de l'information, pour maintenir les normes professionnelles et faire respecter la justice. »
Barclay-Beuthin a soutenu que l'affaire Mavundla était différente, en partie parce que l'avocat principal, Arnold Subel SC, n'avait pas fait référence aux cas fabriqués devant le tribunal et que personne n'avait subi de préjudice en raison de ces erreurs.
Subel a assumé l'entière responsabilité de cet oubli, s'est excusé et a exprimé son incrédulité quant au fait que les informations aient été générées comme décrit. Il a déclaré s'être appuyé sur son équipe juridique expérimentée, dont deux avocats juniors, et n'avoir procédé qu'à un examen général (vérification du sens) des principaux éléments avant leur soumission. Il estimait que les propositions juridiques en cause étaient bien établies et ne nécessitaient pas de citation. Ses plaidoiries orales avaient été préparées de manière indépendante et ne s'appuyaient pas sur les principaux éléments écrits.
Le tribunal a réitéré l'obligation professionnelle des praticiens du droit de ne pas induire le tribunal en erreur, même par négligence.
Le juge en exercice a approuvé le raisonnement de Mavundla et une récente décision de la Haute Cour anglaise, qui mettait en garde contre les dangers de s'appuyer sur GenAI pour des recherches juridiques sans vérification.
Le tribunal anglais a souligné que l'IA peut générer des résultats convaincants mais faux, y compris des sources et des citations inventées, et que les professionnels du droit ont le devoir de vérifier tout contenu de ce type avant de l'utiliser en pratique.
Smit a souligné que l'utilisation abusive de l'IA dans les procédures judiciaires peut gravement nuire au système judiciaire et à la confiance du public.
La Haute Cour d'Angleterre a déclaré que des mesures disciplinaires – y compris des blâmes publics, des condamnations aux dépens et des renvois aux organismes de réglementation – pouvaient être appropriées, selon les circonstances.
Excuses acceptées
Smit a conclu que, bien qu'il ait accepté les excuses de l'équipe juridique et n'ait constaté aucune intention de tromper le tribunal, même des erreurs involontaires dans ce contexte peuvent avoir de graves conséquences.
Conformément à l'affaire Mavundla, il a ordonné que la conduite des juristes de Northbound soit signalée au Conseil de la pratique juridique pour enquête.
« Dans le contexte de la recherche juridique, les risques liés à l'utilisation de l'intelligence artificielle sont désormais bien connus. De tels outils peuvent produire des réponses apparemment cohérentes et plausibles à des sollicitations, mais ces réponses cohérentes et plausibles peuvent se révéler totalement erronées », a déclaré Smit.
Les réponses peuvent contenir des affirmations certaines, mais tout simplement fausses. Elles peuvent citer des sources inexistantes. Elles peuvent prétendre citer des passages d'une source authentique qui n'y figurent pas. Malgré ces risques, ceux qui utilisent l'intelligence artificielle pour mener des recherches juridiques ont le devoir professionnel de vérifier l'exactitude de ces recherches en se référant à des sources faisant autorité, avant de les utiliser dans le cadre de leur activité professionnelle (pour conseiller des clients ou devant un tribunal, par exemple).
La demande de Northbound Processing est examinée en urgence, a statué le juge par intérim.