Incidents associés
Un juge californien a imposé des sanctions aux cabinets d'avocats qui s'étaient appuyés sur l'IA pour leurs recherches, ce qui a donné lieu à un mémoire entaché d'erreurs.
Dans l'affaire Lacey c. State Farm, le juge Michael Wilner (en qualité de conseiller spécial) a réprimandé les deux cabinets d'avocats représentant le demandeur pour ce qu'il a qualifié de « recherche bidon générée par l'IA » (https://www.documentcloud.org/documents/25940991-lacey-v-state-farm/).
Comme détaillé dans les ordonnances que j'ai rendues les 15 et 20 avril (jointes à l'annexe de la présente ordonnance), le mémoire complémentaire du demandeur contenait de nombreuses citations juridiques fausses, inexactes et trompeuses. Selon mon examen a posteriori, corroboré par les déclarations sincères des avocats du demandeur, environ neuf des 27 citations juridiques contenues dans le mémoire de dix pages étaient incorrectes. Au moins deux des autorités citées n'existent pas. De plus, plusieurs citations attribuées aux avis judiciaires cités étaient fausses et ne représentaient pas fidèlement ces documents. Les déclarations des avocats ont finalement clairement démontré que la source du problème résidait dans l'utilisation inappropriée et le recours excessif aux outils d'IA.
Comment cela s'est-il produit ?
Le juge Wilner décrit ensuite la séquence des événements : un avocat (M. Copeland) de l'un des deux cabinets (Ellis George) représentant le demandeur « a utilisé divers outils d'IA pour générer un plan pour le mémoire complémentaire. Ce document contenait les recherches juridiques problématiques. »
Lorsque l'avocat a transmis le plan au deuxième cabinet (K&L Gates), celui-ci a été inclus dans le mémoire, sans que les avocats ni le personnel n'en vérifient l'exactitude. Le juge Wilner a déclaré que les avocats du deuxième cabinet, K&L Gates, ignoraient que le document contenait des recherches générées par l'IA.
Autre point délicat. Lors de mon examen initial du mémoire du demandeur, je n'ai pas pu confirmer l'exactitude de deux des sources citées par les avocats. J'ai envoyé un courriel aux avocats peu après réception du mémoire pour leur demander de corriger cette anomalie. Plus tard dans la journée, K&L Gates a soumis à nouveau le mémoire sans les deux citations incorrectes, mais avec des problèmes persistants générés par l'IA dans le corps du texte. Un avocat associé m'a envoyé un courriel anodin me remerciant d'avoir repéré les deux erreurs « incluses par inadvertance » dans le mémoire et confirmant que les citations du mémoire révisé avaient été « corrigées et mises à jour ».
Je n'ai découvert que les avocats du demandeur avaient utilisé l'IA – et avaient soumis à nouveau le mémoire avec beaucoup plus de citations inventées que les deux erreurs initiales – que lorsque j'ai émis une demande ultérieure à la CVMO sollicitant une explication plus détaillée. Les déclarations sous serment des avocats et la soumission ultérieure du « plan » généré par l'IA ont clairement mis en évidence la série d'événements ayant conduit aux faux dépôts. Ces déclarations comprenaient également de nombreuses excuses et des aveux sincères de faute.
« Aucun avocat raisonnablement compétent ne devrait » se fier à l'IA
Le juge Wilner cite ensuite un certain nombre de règles juridiques relatives à la responsabilité des avocats de fournir des documents et des mémoires exacts, au mieux de leurs capacités. Il déplore également que les tribunaux soient de plus en plus souvent contraints de traiter les avocats utilisant abusivement l'IA dans leurs conclusions. Il conclut finalement que les avocats ont agi de mauvaise foi et souligne que des avocats compétents ne devraient pas utiliser l'IA de cette manière.
Je conclus que les avocats impliqués dans le dépôt des mémoires originaux et révisés ont collectivement agi d'une manière assimilable à de la mauvaise foi. Fink, 239 F.3d à 994. L'utilisation initiale, non divulguée, de produits d'IA pour générer la première version du mémoire était tout simplement erronée. Malgré les progrès récents, aucun avocat raisonnablement compétent ne devrait sous-traiter la recherche et la rédaction à cette technologie, surtout sans avoir tenté de vérifier l'exactitude de ces documents. Et envoyer ces documents à d'autres avocats sans divulguer leurs origines douteuses issues de l'IA mettait en danger ces professionnels. M. Copeland a admis franchement que c'était lui qui s'était produit et en éprouve de profonds remords.
Bien qu'il ait conclu que M. Copeland était le principal responsable de la situation, le juge Wilner a été très critique à l'égard du manque de diligence raisonnable de K&L Gates et du rôle qu'il a joué.
Cependant, la conduite des avocats de K&L Gates est également profondément troublante. Ils n'ont pas vérifié la validité des recherches qui leur ont été envoyées. De ce fait, de fausses informations se sont glissées dans le mémoire original que j'ai lu. C'est grave. Mais lorsque je les ai contactés pour leur faire part de mes inquiétudes concernant une partie de leurs recherches, les avocats ont opté pour la solution suivante : supprimer les faux éléments et soumettre le mémoire révisé, qui contenait encore une demi-douzaine d’erreurs d’IA. De plus, même si les avocats étaient informés d’un problème important dans la recherche juridique (signalé par le destinataire du mémoire : le conseiller spécial), aucune information ne m’a été communiquée concernant l’utilisation de l’IA. Le courriel transmettant le nouveau mémoire suggérait simplement une erreur de production involontaire, et non un recours abusif à la technologie. Autrement dit, ils disposaient des informations et de la possibilité de corriger ce problème, mais ne l’ont pas fait.
Je conclus donc que (a) l’utilisation initiale non divulguée de l’IA, (b) l’absence de vérification des citations du mémoire original et (peut-être le plus flagrant), (c) la nouvelle soumission du mémoire révisé défectueux sans divulgation adéquate de l’utilisation de l’IA, tous ces éléments pris ensemble démontrent une conduite imprudente visant à influencer mon analyse des questions de privilège litigieuses. Les cabinets Ellis George et K&L Gates ont eu suffisamment de possibilités – avant et après que leur erreur ait été portée à leur connaissance – d'empêcher que cela ne se reproduise. Leur manquement à cette obligation justifie des sanctions modérées dans ces circonstances.
Conclusion et sanctions
Le juge Wilner a rendu sa conclusion finale, y compris sa décision d'imposer des sanctions.
Une dernière remarque. En clair, l'utilisation de l'IA par le demandeur m'a clairement induit en erreur. J'ai lu leur mémoire, j'ai été convaincu (ou du moins intrigué) par les autorités citées, et j'ai consulté les décisions pour en savoir plus, pour finalement découvrir qu'elles n'existaient pas. C'est inquiétant. Cela a presque conduit à une issue encore plus inquiétante (de mon point de vue) : l'inclusion de ces faux documents dans une ordonnance judiciaire. Une dissuasion forte est nécessaire pour s'assurer que les avocats ne succombent pas à la facilité.
Pour ces raisons, les mémoires supplémentaires du demandeur sont radiés et aucune autre demande de communication préalable ne sera accordée sur la question du privilège litigieux. De plus, les cabinets d'avocats du demandeur sont condamnés (conjointement et solidairement) à verser à la défense une indemnité d'un montant total de 31 000 $.
Un réquisitoire accablant contre la fiabilité de l'IA
L'expérience du juge Wilner en matière d'IA est malheureusement bien trop courante. Les hallucinations demeurent un problème majeur pour les modèles d'IA, et même les modèles récents continuent de rencontrer des difficultés. En réalité, certains des modèles les plus avancés d'OpenAI hallucinent davantage que les précédents.
Les entreprises d'IA militent pour une adoption généralisée de leurs modèles d'IA et, plus inquiétant encore, certains législateurs souhaitent empêcher les États et les agences de réglementer l'IA. Par conséquent, certains utilisateurs croient à tort que l'IA est prête à s'attaquer à n'importe quelle tâche qui lui est confiée et qu'on peut lui faire confiance pour le faire avec précision et fiabilité.
Cependant, incident après incident, il reste encore beaucoup à faire avant que l'IA soit pleinement capable de gérer les tâches les plus élémentaires, comme la recherche d'affaires juridiques sans en inventer.