Incidents associés
25 février (Reuters) - Trois avocats poursuivant Walmart pour préjudice corporel doivent payer des amendes totalisant 5 000 dollars pour avoir cité de faux cas générés par l'intelligence artificielle dans un dossier judiciaire, a décidé un juge fédéral.
Les avocats, dont deux du cabinet national Morgan & Morgan et un d'un cabinet plus petit, avaient l'obligation éthique de s'assurer que les cas qu'ils citent étaient réels, a déclaré lundi le juge de district américain Kelly Rankin dans le Wyoming dans son ordonnance de sanctions, ouvre un nouvel onglet.
"Alors que les avocats font la transition vers le monde de l'IA, le devoir de vérifier leurs sources et de faire une enquête raisonnable sur la loi existante reste inchangé", a écrit Rankin.
Au cours des deux dernières années, les juges de tout le pays ont interrogé ou sanctionné un nombre croissant d'avocats pour avoir inclus des cas et des citations générés par l'IA dans des documents judiciaires. Des exemples ont surgi dans au moins neuf procès depuis que des chatbots comme ChatGPT ont inauguré l'ère de l'IA, mettant en évidence un nouveau risque de litige.
Rankin a infligé une amende de 3 000 $ à Rudwin Ayala de Morgan & Morgan, qui s'est excusé plus tôt ce mois-ci et a déclaré avoir utilisé un programme d'IA interne qui a « halluciné » les cas, qu'il a incorporé dans un dossier dans l'affaire.
Le juge a également retiré Ayala du procès et a imposé des amendes de 1 000 $ chacun à T. Michael Morgan et à l'avocat local Taly Goody de Goody Law Group pour ne pas avoir fait assez pour garantir l'exactitude du dossier rédigé par Ayala.
Ayala, Morgan et un représentant de Morgan & Morgan n'ont pas immédiatement répondu aux demandes de commentaires mardi. Morgan est le fils du fondateur de Morgan & Morgan, John Morgan, selon des rapports de presse antérieurs.
Goody a déclaré dans un courriel qu'elle n'avait pas reçu le dossier à examiner avant qu'il ne soit soumis, et a souligné une explication antérieure qu'elle avait fournie au tribunal.
Walmart a refusé de commenter. Il a nié les allégations du procès sous-jacent, qui accuse le détaillant d'avoir vendu un jouet hoverboard défectueux qui aurait pris feu et brûlé la maison des plaignants. L'affaire devrait être jugée le mois prochain.
En décidant des sanctions, le juge a déclaré avoir pris en compte le fait que les avocats « ont été informés » de la capacité de l'IA générative à halluciner les cas. Il a déclaré que « l'honnêteté et la franchise » d'Ayala et les mesures prises par Morgan & Morgan pour éviter de futurs incidents ont contribué à une sanction moins sévère.
« Lorsqu'elle est bien utilisée, l'IA peut être incroyablement bénéfique pour les avocats et le public », a écrit Rankin. « Le cas présent est simplement le dernier rappel à ne pas se fier aveuglément aux citations des plateformes d'IA, quelle que soit la profession. »
Dans une autre affaire, un juge fédéral de l'Indiana a recommandé la semaine dernière une amende de 15 000 $ pour un avocat qui avait soumis trois mémoires contenant des citations de cas inexistantes générées par l'IA et l'a renvoyé devant le juge en chef pour une éventuelle sanction supplémentaire.