Incidents associés
Deux juges fédéraux ont imputé des décisions erronées à l'utilisation d'outils d'intelligence artificielle par leurs collaborateurs, soulevant des questions quant à la rigueur avec laquelle ils examinent les documents émis en leur nom.
Les juges de district américains Julien Neals (New Jersey) et Henry Wingate (Mississippi) ont reconnu les faiblesses de l'IA dans des courriers adressés au Bureau administratif des tribunaux américains. Les deux missives adressées à Neals à Grassley concernant l'utilisation de l'intelligence artificielle par le système judiciaire (https://www.grassley.senate.gov/imo/media/doc/neals_to_grassley_re_judiciary_use_of_ai.pdf), envoyées les 20 et 21 octobre en réponse aux questions posées par le sénateur Chuck Grassley (républicain de l'Iowa), président de la commission judiciaire du Sénat, ont été examinées par Bloomberg Law.
Selon Bruce Green, professeur à la faculté de droit de l'université Fordham, ces erreurs soulèvent des inquiétudes quant au fonctionnement du système judiciaire, inquiétudes que l'avènement de l'intelligence artificielle générative ne saurait justifier. « Les excuses des juges soulèvent la question de savoir s'ils publient régulièrement des projets d'avis », a-t-il déclaré.
Les décisions erronées et les réactions des juges montrent que les tribunaux peuvent s'attendre au même niveau de contrôle de l'utilisation de l'IA que celui qu'ils exercent sur les avocats plaidant devant eux. Plusieurs avocats ont été sanctionnés pour leur utilisation inappropriée de l'IA dans la rédaction de documents.
Le juge Neals a indiqué dans sa lettre qu'un stagiaire en droit de son bureau avait utilisé Chat GPT pour effectuer des recherches juridiques, ce qui a abouti à une ordonnance du 30 juin contenant des citations de jurisprudence inexistantes. Le stagiaire n'avait pas accès à des informations confidentielles ou non publiques lorsqu'il utilisait l'outil d'IA, a-t-il précisé.
Le juge Wingate a déclaré que son assistant juridique avait utilisé l'outil d'IA Perplexity comme aide à la rédaction, ce qui a abouti à une ordonnance de référé du 20 juillet faisant référence à des parties, des allégations et des citations sans rapport avec l'affaire. Wingate a affirmé que l'assistant n'avait saisi aucune information confidentielle ou non publique concernant l'affaire dans Perplexity.
« Il s'agissait d'un projet qui n'aurait jamais dû être enregistré », a écrit Wingate. « C'était une erreur. » Il a ajouté qu'il y avait eu « un manquement à la procédure de révision finale du projet d'avis ».
Aucun des deux juges n'a répondu aux demandes de commentaires jeudi.
Responsabilité judiciaire
Qu'elles soient rédigées à l'aide de l'IA ou de recherches traditionnelles, les décisions des juges doivent être vérifiées, a déclaré Stephen Gillers, professeur à la faculté de droit de l'université de New York.
« Le juge doit lire la jurisprudence qu'il cite », a affirmé Gillers. « Si le juge cite une jurisprudence, qu'elle provienne de l'IA ou d'une recherche traditionnelle effectuée par un greffier, il doit la lire. »
Green, directeur du centre de droit et d'éthique de Fordham, a déclaré que les erreurs des juges soulèvent des questions quant à la fréquence à laquelle ils enregistrent des projets non vérifiés. Était-ce « une simple coïncidence incroyable si, dans les rares cas où deux juges ont publié par inadvertance des projets d'avis, ces projets ont fait un mauvais usage de l'IA générative » ?
Dans sa lettre, le juge Wingate a indiqué que, désormais, tous les projets de décisions rédigés dans son cabinet devront faire l'objet d'une relecture indépendante par un second assistant juridique avant de lui être soumis. Il a également précisé que toutes les décisions citées dans un jugement devront être accompagnées d'une copie imprimée de ces décisions.
Le juge Neals a déclaré que l'utilisation de ChatGPT par son stagiaire contrevenait à la politique de son cabinet interdisant le recours à l'IA générative dans la recherche juridique et la rédaction des jugements. Il a ajouté avoir formalisé cette politique par écrit, alors qu'auparavant, il s'agissait d'un accord verbal.
« J'ai pris des mesures préventives dans mon cabinet », a-t-il affirmé.
Mais interdire l'IA – un « outil de recherche utile » – est une réaction excessive, selon Gillers, surtout compte tenu de sa fréquence d'utilisation dans la pratique du droit.
« Le juge devrait plutôt inciter les juges à apprendre à utiliser l'IA et à l'utiliser avec précaution », a-t-il déclaré. « Le juge qui interdit l'utilisation de l'IA en toutes circonstances se trompe. »
Enquête du Sénat
Le sénateur Grassley a ouvert une enquête après que les deux juges ont annulé et remplacé les décisions que les avocats des parties avaient jugées problématiques. Il n'a pas formulé de recommandation précise, si ce n'est de demander aux tribunaux de veiller à ce que les droits des parties ne soient pas bafoués par les nouvelles technologies.
« Le pouvoir judiciaire doit élaborer des politiques et des directives plus claires, pertinentes et pérennes en matière d'IA », a déclaré Grassley dans un communiqué. « Nous ne pouvons pas laisser la paresse, l'apathie ou une dépendance excessive à l'égard de l'assistance artificielle compromettre l'engagement du pouvoir judiciaire envers l'intégrité et l'exactitude des faits. »
Les juges ont adressé leurs réponses aux questions de Grassley à Robert Conrad, directeur du Bureau administratif des tribunaux américains et ancien juge du tribunal de district des États-Unis pour le district ouest de la Caroline du Nord. Son bureau assure la liaison entre le pouvoir judiciaire et les membres du Congrès.
Dans sa lettre, le juge Conrad a inclus des recommandations sur l'utilisation de l'IA formulées par un groupe de travail qu'il a mis sur pied plus tôt cette année. Les directives provisoires mettent en garde contre la délégation de fonctions judiciaires essentielles à l'IA, notamment le jugement des affaires, en particulier face à des questions juridiques inédites.
Elles précisent également que les utilisateurs doivent vérifier indépendamment tous les résultats générés par l'IA et rappellent aux juges, aux utilisateurs du système judiciaire et à ceux qui approuvent l'utilisation de l'IA qu'ils sont responsables de tout travail effectué avec son assistance.
Le bureau administratif des tribunaux américains n'a pas immédiatement répondu à notre demande de commentaires.