Incidents associés

Le jugement de la profession juridique sur ChatGPT ne se limite plus aux faux pas des petits cabinets. Dans un exemple frappant de la façon dont l’IA peut conduire les avocats dans de nombreux ennuis, les avocats de Morgan & Morgan – le plus grand cabinet d’avocats spécialisé dans les dommages corporels du pays avec plus de 1 000 avocats – risquent désormais des sanctions potentielles pour avoir cité huit cas fabriqués dans un dossier déposé auprès d’un tribunal fédéral du Wyoming.
L’incident, rapporté par David Lat dans son blog Original Jurisdiction substack, fait écho aux sanctions de 2023 de Levidow, Levidow & Oberman mais élimine l’excuse des ressources limitées, soulignant les risques systémiques liés au recours à l’IA.
Le 22 janvier 2025, les avocats des plaignants ont déposé des requêtes in limine citant neuf cas, dont huit étaient introuvables dans les dossiers judiciaires ou les bases de données juridiques. Seul United States v. Caraway (10th Cir. 2008) s’est avéré valable. L’avocat de la défense a allégué que ChatGPT avait généré les citations fantômes, y compris des décisions fictives comme Meyer v. City of Cheyenne avec des identifiants Westlaw fabriqués.
L’ordonnance du juge Kelly Rankin du 7 février exige que les avocats Rudwin Ayala (Morgan & Morgan), Taly Goody (Goody Law Group) et Timothy Michael Morgan (Morgan & Morgan) produisent des copies valides des dossiers avant le 10 février, sous peine de sanctions en vertu de la règle 11, § 1927 et de l’autorité inhérente du tribunal.
-
Échelle contre examen : les vastes ressources de Morgan & Morgan, contrairement aux difficultés d’accès à Westlaw du cabinet Levidow, rendent cette lacune plus difficile à justifier. Le cabinet se classe au 42e rang du classement Am Law 100 en termes d’effectifs, mais des lacunes en matière de surveillance ont permis des erreurs non signalées.
-
L’épée à double tranchant de l’IA : Si des outils comme ChatGPT contribuent à l’efficacité, l’affaire du Wyoming souligne le besoin non négociable de vérification. Comme l’a fait remarquer Bridget McCormack, ancienne juge en chef de la Cour suprême du Michigan, sur le podcast AAAI, l’utilisation incontrôlée de l’IA risque de « faire reculer la profession » en érodant la confiance des juges.
-
Précédent plus large : le juge Rankin a cité Mata v. Avianca (S.D.N.Y. 2023) – où les hallucinations de ChatGPT ont conduit à des sanctions – comme modèle de responsabilité. Les tribunaux imposent de plus en plus de déclarations sous serment expliquant l’utilisation de l’IA dans les dossiers.
Quelles leçons les avocats peuvent-ils en tirer – à part de vérifier, revérifier et revérifier les citations, lorsqu’ils utilisent l’IA pour leurs soumissions de dossiers ?
-
Vérifiez, puis faites confiance : vérifiez les citations générées par l’IA avec des plateformes faisant autorité comme Westlaw ou LexisNexis. Même la citation Caraway du dixième circuit était valide, mais enfouie parmi des fabrications.
-
Protocoles de supervision : avec trois avocats nommés dans l’ordonnance, les cabinets doivent clarifier les rôles dans la rédaction et la révision. Le tribunal exige que chaque avocat détaille son implication avant le 13 février.
-
Garde-fous éthiques : la Règle modèle 1.1 (compétence) et l’Avis 498 (éthique technologique) de l’ABA imposent de comprendre les limites de l’IA.
Pour les cabinets, cette affaire est un signal d’alarme : aucune taille de cabinet ne protège contre la négligence des citations.
Les grands cabinets d’avocats continuent d’explorer de nouvelles applications de l’IA et de nouveaux développements en matière de technologie juridique sont annoncés régulièrement.
- Les cabinets utilisent l’IA pour la synthèse, la transcription, l’analyse des contrats et même l’évaluation des associés, avec des outils d’IA personnalisés également adaptés aux besoins spécifiques des cabinets d’avocats.
Alors que l’IA transforme le travail juridique dans les grands cabinets comme Morgan & Morgan, l’accent est clairement mis sur son utilisation comme un outil pour améliorer l’expertise humaine plutôt que pour la remplacer. Morgan & Morgan, par exemple, utiliserait l’outil de gestion de cabinet Litify pour développer son cabinet jusqu’à la taille prééminente qu’il est aujourd’hui. Ils disposent également d’un « centre d’excellence en IA » pour garantir l’exactitude des résultats de l’IA.
Mais pas cette fois-ci. Le cas rapporté par David Lat est un rappel plus que lucide des dangers liés à l’absence d’outils permettant de vérifier les citations générées par l’IA – et toute autre soumission ou disposition contractuelle générée par l’IA.
LawFuel surveillera les dépôts de dossiers pour les réponses des avocats des 10 et 13 février.
Sources : Wadsworth c. Walmart Inc., ECF No. 150 Ordonnance du juge Rankin de présentation de la cause Classement 2024 de The American Lawyer Podcast AAAI : L'IA dans la pratique juridique Mata c. Avianca, 2023 WL 3696209