Incidents associés
10 février (Reuters) - Les avocats représentant les plaignants dans un procès contre Walmart (WMT.N), ouvre un nouvel onglet pour des blessures présumées causées par un jouet hoverboard défectueux ont déclaré lundi qu'ils avaient par inadvertance inclus des cas inventés générés par l'intelligence artificielle dans un dossier judiciaire.
Un juge fédéral du Wyoming a demandé jeudi aux avocats des plaignants d'expliquer pourquoi ils ne devraient pas être sanctionnés, après que les avocats de Walmart et du co-accusé Jetson Electric Bikes ont déclaré au tribunal qu'ils n'avaient pas pu trouver neuf cas que les plaignants avaient cités dans un document judiciaire et suggérant que l'IA avait joué un rôle.
L'affaire, impliquant des avocats du cabinet national de plaignants Morgan & Morgan, est la dernière dans laquelle les citations de cas générées par l'IA se sont révélées sujettes à des erreurs, mettant à l'épreuve la capacité des avocats et des juges à distinguer les recherches juridiques légitimes de la fiction.
Les avocats des plaignants --- Rudwin Ayala et T. Michael Morgan de Morgan & Morgan, et Taly Goody du cabinet Goody Law Group, composé de trois avocats --- ont retiré vendredi le dossier contenant les neuf cas.
Dans leur dossier déposé lundi auprès du juge de district américain Kelly Rankin, ils ont déclaré que les cas cités « n'étaient pas légitimes » et qu'une plateforme d'IA interne « hallucinait » les cas.
« Cette affaire est très embarrassante et a suscité des discussions et des actions concernant la formation, la mise en œuvre et l'utilisation future de l'intelligence artificielle au sein de notre cabinet », ont déclaré les avocats dans le dossier soumis par Morgan.
Les trois avocats n'ont pas immédiatement répondu aux demandes de commentaires.
Un avocat représentant Walmart et Jetson a refusé de commenter. Walmart a refusé de commenter.
Des juges de tout le pays ont pesé le pour et le contre et dans certains cas ont imposé des sanctions aux avocats pour avoir inclus des citations générées par l'IA dans des documents judiciaires.
Bien que certains juges et tribunaux aient émis des ordonnances régissant la manière dont les avocats peuvent utiliser les outils d'IA, l'utilisation de cette technologie est généralement autorisée. Des groupes, dont l'American Bar Association, ont déclaré que les avocats doivent tenir compte de leurs obligations éthiques en matière de vérification des informations contenues dans les soumissions judiciaires.
L'affaire sous-jacente dans le Wyoming a été déposée en juillet 2023 par deux parents en leur nom et au nom de leurs enfants, affirmant avoir subi des brûlures et une détresse émotionnelle après qu'un hoverboard fabriqué par Jetson et vendu par Walmart a explosé et incendié leur maison.
Walmart et Jetson ont nié les allégations et ont affirmé que l'incendie avait pris naissance dans un « hangar à fumeurs » à l'extérieur de la maison.