Un juge fédéral a adressé un nouveau message aux avocats susceptibles d'être tentés d'utiliser l'intelligence artificielle générative : vérifiez toujours votre travail.
Dans une décision rendue lundi, la juge Nina Y. Wang du tribunal fédéral du district du Colorado a imposé des sanctions à deux avocats qui représentaient Mike Lindell, le fondateur de MyPillow, connu pour avoir propagé des théories du complot concernant l'élection présidentielle de 2020.
En février, a déclaré la juge Wang, les avocats avaient déposé un mémoire dans une affaire de diffamation contre M. Lindell, qui contenait « près de 30 citations défectueuses ». Ce mémoire citait des décisions judiciaires erronées, déformait les principes de droit et, « de manière particulièrement flagrante », citait « des affaires inexistantes », a-t-elle écrit.
La juge Wang a déclaré que les avocats, Christopher I. Kachouroff et Jennifer T. DeMaster, n'avaient pas expliqué comment de telles erreurs avaient pu figurer dans le dossier « en l'absence de recours à l'intelligence artificielle générative ou de négligence grave de la part des avocats ».
Elle a conclu qu'ils avaient enfreint une règle fédérale exigeant des avocats qu'ils certifient que les allégations formulées dans leurs documents judiciaires sont fondées sur la loi. Elle leur a infligé une amende de 3 000 dollars chacun, la qualifiant de « sanction la moins sévère pour dissuader et punir l'avocat de la défense dans cette affaire ».
M. Kachouroff et Mme DeMaster n'ont pas immédiatement répondu mardi aux messages sollicitant des commentaires sur les amendes.
Lors d'une audience en avril, la juge Wang a demandé à M. Kachouroff si le document judiciaire contenant les erreurs avait été généré par l'intelligence artificielle générative.
« Pas initialement », a répondu M. Kachouroff, selon les documents judiciaires. « Au départ, j'ai établi un plan pour moi-même, j'ai rédigé une requête, puis nous l'avons soumise à l'IA. »
La juge Wang a également demandé à M. Kachouroff s'il avait vérifié les citations dans le document.
« Votre Honneur, je ne l'ai pas personnellement vérifié », a-t-il déclaré, selon les documents judiciaires. « Je suis responsable de cette absence de vérification. »
M. Kachouroff a déclaré plus tard dans les documents judiciaires avoir été « complètement surpris » par la manière dont le juge l'a interrogé.
« Je n'ai pas compris ce qui se passait, car mon co-avocat et moi-même ne nous étions pas appuyés sur des recherches juridiques assistées par intelligence artificielle et avions préparé un document final soigneusement vérifié pour le dépôt », a déclaré M. Kachouroff.
Il a cependant affirmé que sa co-avocate, Me DeMaster, avait « par erreur déposé » une version préliminaire du document au lieu de la version finale qu'ils avaient « soigneusement vérifiée et corrigée ». Lorsqu'elle a téléchargé le document, a expliqué M. Kachouroff, il était en vacances au Mexique et disposait d'un accès internet limité.
M. Kachouroff a ajouté que, bien qu'il utilise souvent des programmes d'intelligence artificielle pour analyser ses arguments et ceux de sa partie adverse, « je ne m'appuie pas sur l'intelligence artificielle pour effectuer des recherches juridiques ou trouver des affaires ».
« Que j'utilise ou non l'IA dans une plaidoirie particulière, je vérifie toujours les citations avant le dépôt », a-t-il ajouté.
Mme DeMaster a déclaré dans son propre dépôt en avril avoir téléchargé par erreur la version préliminaire du document, pensant qu'il s'agissait de la version finale.
« Je présente mes sincères excuses au tribunal pour avoir déposé la mauvaise version et pour la gêne occasionnée à ce tribunal et aux parties », a-t-elle écrit. « Ce n'était pas intentionnel, ni pour induire le tribunal en erreur, ni de mauvaise foi, ni à des fins inappropriées. »
La juge Wang a déclaré dans sa décision de lundi qu'elle n'était pas convaincue que le dépôt « soit simplement une erreur involontaire, compte tenu des déclarations contradictoires et de l'absence de preuves corroborantes. »
M. Lindell a perdu son procès en diffamation le mois dernier et a été condamné à verser 2,3 millions de dollars de dommages et intérêts à Eric Coomer, un ancien employé de Dominion Voting Systems. M. Coomer avait accusé M. Lindell de l'avoir traité de « traître aux États-Unis » et lui avait demandé de se rendre aux autorités, selon les documents judiciaires.
Ces sanctions interviennent alors que des avocats, ainsi que des étudiants, des enseignants, des journalistes et d'autres acteurs, cherchent à exploiter au mieux les immenses pouvoirs de l'intelligence artificielle tout en garantissant l'originalité et la précision de leurs travaux.
L'American Bar Association, dans ses premières orientations éthiques sur l'utilisation de l'IA générative à destination des avocats, a souligné l'année dernière que de nombreux avocats utilisaient des outils d'IA pour améliorer l'efficacité et la qualité de leurs services juridiques.
Le barreau a toutefois averti qu'une « dépendance aveugle » à ces outils « peut donner lieu à des conseils juridiques inexacts pour les clients ou à des déclarations trompeuses auprès des tribunaux et des tiers ».
Il a déclaré que les avocats devraient exercer un « niveau approprié de vérification ou d'examen indépendant » du contenu généré par l'IA afin de s'assurer qu'ils ne manquent pas à leur devoir de fournir une représentation compétente à leurs clients.
Le mois dernier, la Haute Cour d’Angleterre et du Pays de Galles a averti les avocats qu’ils pourraient faire l’objet de poursuites pénales pour avoir présenté de faux documents générés par l’intelligence artificielle après qu’une série d’affaires aient cité des citations et des décisions inventées qui n’existaient pas.