Incidents associés
Deux juges fédéraux du New Jersey et du Mississippi ont admis ce mois-ci avoir utilisé l'intelligence artificielle pour rédiger des documents judiciaires factuellement inexacts, incluant de fausses citations et des parties fictives. Cette situation a suscité une vive réprobation de la part du président de la commission judiciaire du Sénat.
« Je n'ai jamais rien vu ni entendu de tel de la part d'un tribunal fédéral », a déclaré le sénateur Chuck Grassley (R-Iowa) lors d'une intervention au Sénat lundi.
La commission a annoncé jeudi que les juges Henry T. Wingate, du district sud du Mississippi, et Julien Xavier Neals, du district du New Jersey, ont reconnu avoir eu recours à l'IA pour préparer ces documents truffés d'erreurs durant l'été. Ils ont imputé ces erreurs respectivement à un assistant juridique et à un stagiaire en droit, selon les lettres qu'ils ont envoyées en réponse à une enquête du Sénat.
Les deux documents judiciaires erronés ont été versés au rôle et ont dû être retirés en urgence après que les défendeurs ont signalé les erreurs aux juges. Aucun des deux juges n'a expliqué la cause des erreurs avant d'être contacté par la commission.
L'utilisation de l'intelligence artificielle générative (IAG) se généralise dans le système judiciaire américain. Wingate et Neal rejoignent ainsi de nombreux avocats et justiciables qui ont été réprimandés pour avoir utilisé l'IA afin de produire des documents juridiques truffés d'erreurs.
Les instances juridiques sont encore en train de s'adapter. Le Bureau administratif des tribunaux américains (AOCC), qui soutient le système judiciaire fédéral, a publié en juillet des recommandations provisoires suggérant aux utilisateurs de « réfléchir à l'opportunité de divulguer l'utilisation de l'IA » dans le cadre de leurs fonctions judiciaires. Il a également mis en place un groupe de travail chargé d'élaborer des recommandations supplémentaires sur l'utilisation de l'IA dans les tribunaux fédéraux.
Grassley a déclaré lundi que les tribunaux fédéraux devaient établir des règles concernant l'utilisation de l'IA dans les litiges.
« J'appelle chaque juge américain à prendre cette question au sérieux et à formaliser des mesures pour prévenir le mésusage de l'intelligence artificielle dans son cabinet », a-t-il affirmé.
Dans leurs courriers, Wingate et Neals ont indiqué avoir pris des mesures correctives après avoir été informés des erreurs et qu'ils procéderaient à des vérifications supplémentaires des documents déposés auprès du tribunal avant leur soumission. Neals a précisé avoir établi une politique écrite au sein de son cabinet interdisant l'utilisation de l'intelligence artificielle générative dans la recherche juridique ou la rédaction de documents judiciaires.
Wingate n'a pas immédiatement répondu à notre demande de commentaires. Le cabinet de Neals a refusé de commenter.
Wingate, nommé à la Cour suprême par le président Ronald Reagan en 1985, supervisait une affaire intentée par la Fédération des enseignants de Jackson et d'autres associations contre le Conseil d'éducation de l'État du Mississippi et d'autres instances étatiques. Cette action en justice contestait une loi de l'État interdisant aux écoles publiques d'enseigner « l'idéologie transgenre » et de dispenser des « formations à la diversité » sur les questions de race, de genre et d'orientation sexuelle.
Le 20 juillet, Wingate a accordé une injonction temporaire empêchant l'État d'appliquer certaines dispositions de cette interdiction. Deux jours plus tard, dans une requête en clarification, les avocats du Mississippi ont affirmé que l'ordonnance de Wingate était truffée d'erreurs.
L'ordonnance mentionnait plusieurs plaignants et défendeurs, dont une association étudiante, un parent du Mississippi, des étudiants et des représentants du gouvernement, qui n'étaient pas parties à l'affaire, selon la réponse des avocats du Mississippi. L'ordonnance contenait des allégations qui ne figuraient pas dans la plainte et indiquait à tort que le projet de loi était bloqué, ont souligné les avocats. L'ordonnance citait également des déclarations de personnes à l'appui d'une injonction qui n'existait pas.
Le bureau de Wingate a émis une injonction rectifiée le soir même et a demandé aux parties de ne pas tenir compte de la précédente. L'affaire est toujours en cours ; Wingate avait accordé une injonction préliminaire contre le projet de loi en août, contre laquelle les avocats du Mississippi ont fait appel.
Neals, nommé par le président Joe Biden en 2021, a rendu une décision erronée dans le cadre d'un recours collectif en valeurs mobilières intenté contre CorMedix, une société pharmaceutique, pour avoir prétendument induit les investisseurs en erreur au sujet d'un produit médical.
Le 30 juin, Neals a rejeté la requête de CorMedix visant à faire rejeter la plainte. Environ un mois plus tard, les avocats de CorMedix ont écrit que l'avis de Neals contenait des cas inventés et des citations inexistantes d'affaires réelles invoquées à l'appui de sa décision. Il y était fait état de résultats erronés et d'indications erronées quant à l'acceptation ou non des requêtes en irrecevabilité. De plus, des citations mensongères étaient attribuées à CorMedix, selon la lettre.
L'avis de Neals avait également été produit comme « autorité complémentaire » dans le cadre d'un autre recours collectif, dont les défendeurs avaient également soulevé des problèmes concernant ce document, précise la lettre.
Neals a reconnu que l'avis avait été rendu par erreur et l'a retiré du rôle. L'affaire est en cours.
Les erreurs relevées dans les décisions des deux juges étaient similaires à celles provoquées par des dysfonctionnements de l'IA – où une IA générative, qui produit du texte en prédisant l'enchaînement des mots à partir d'une analyse du contenu écrit, invente avec assurance des faits et de fausses citations – et les observateurs ont rapidement supposé que ces erreurs provenaient de l'utilisation de l'IA.
Dans un premier temps, interrogés par les avocats et les parties, aucun des deux juges n'a admis que les erreurs étaient liées à l'IA. Grassley, dans son discours de lundi, a qualifié leur « manque de transparence… stupéfiant ».
Le Comité judiciaire du Sénat a écrit à Neals et Wingate début octobre pour s'enquérir des erreurs commises. Dans leurs r éponses, les deux juges ont indiqué que ces erreurs étaient imputables à l'intelligence artificielle, mais que les documents déposés étaient des brouillons publiés par erreur avant leur examen.
Un assistant juridique du cabinet de Wingate a utilisé l'outil d'IA Perplexity comme « assistant de rédaction de base » pour synthétiser les informations publiques disponibles dans le rôle du tribunal, a écrit Wingate. Un stagiaire en droit auprès de Neals a utilisé ChatGPT pour effectuer des recherches juridiques, a précisé Neals.
(Le Washington Post est partenaire de Perplexity et d'OpenAI, le créateur de ChatGPT.)
« Je gère un rôle très chargé et je m'efforce de maintenir la confiance du public en rendant la justice de manière équitable et transparente », a écrit Wingate. « Étant donné que j'exige de moi-même et de mon personnel les normes de conduite les plus élevées, je ne m'attends pas à ce qu'une telle erreur se reproduise. »
« Bien que mon expérience dans l'affaire CorMedix ait été des plus malheureuses et imprévisibles, j'espère qu'à tout le moins, elle éclairera le travail continu du groupe de travail [du Bureau administratif des tribunaux] et mènera finalement à de nouvelles politiques significatives pour tous les tribunaux fédéraux », a écrit Neals.