Incidents associés

COLORADO SPRINGS, Colorado (KRDO) - L'avocat de Colorado Springs, Zachariah Crabill, pensait qu'il déposait une requête avec des cas cités qui favoriseraient l'argument de son client, pour découvrir que de nombreux cas étaient inventés par le logiciel d'intelligence artificielle ChatGPT.
Crabill, avocat agréé du Colorado depuis environ un an et demi, travaillait sur son premier procès civil. Il défendait un client accusé d'avoir violé un accord de paiement pour une voiture.
Dans un document judiciaire, admettant son erreur, Crabill a déclaré qu'il s'agissait de la première requête en annulation d'un jugement sommaire qu'il avait jamais recherché, rédigé et déposé par lui-même. Il avait entendu parler de ChatGPT, un chatbot à intelligence artificielle développé par OpenAI, formé pour suivre des instructions dans une invite et fournir une réponse détaillée. Il s’est donc tourné vers la technologie de l’IA pour l’aider à trouver des jurisprudences susceptibles de renforcer les arguments de son client.
"J'ai ressenti mon manque d'expérience en matière de recherche et de rédaction juridiques et, par conséquent, mon efficacité à cet égard pourrait être augmentée de manière exponentielle au profit de mes clients en accélérant la partie de recherche fastidieuse de la rédaction", a déclaré Crabill dans un document judiciaire.
Ramsey Lama, ancien juge du comté de Fremont devenu avocat de la défense, a déclaré que la recherche juridique peut prendre beaucoup de temps, prenant de 20 à 30 heures dans certains cas. Bien qu'il n'ait jamais utilisé ChatGPT, il a déclaré qu'il pouvait voir à quel point cela serait utile dans le secteur juridique.
"Ce qui prenait auparavant peut-être 40 ou 20 heures à un avocat, peut-être qu'un outil comme celui-ci pourrait le condenser à deux heures ou peut-être 30 minutes", a déclaré Lama. « Un résultat plus rapide pour le client est meilleur pour le client. Un résultat plus rapide pour le client lui permet d’économiser de l’argent.
C’était l’espoir de Crabill. Au début, il a interrogé ChatGPT sur les lois existantes du Colorado. Il a déclaré que les réponses étaient exactes et qu’il faisait confiance à la technologie.
Cependant, lorsque Crabill a commencé à rechercher des cas à citer dans sa requête, ChatGPT l'a trahi sans même qu'il s'en rende compte. La technologie de l’IA a craché des dizaines de cas similaires à celui de son client, sauf que ces cas n’existaient pas.
Sean Williams, directeur du programme de communication technique et de conception de l'information à l'Université du Colorado-Colorado Springs, a déclaré qu'il s'agissait d'une erreur courante que commettent de nombreuses personnes lorsqu'elles utilisent la technologie de l'IA.
"Une fois que nous sommes confiants et à l'aise avec les informations dont nous disposons, nous supposons que les informations qu'elles nous donnent sont correctes", a déclaré Williams. "Cette affaire montre que ce n'était pas vrai et c'est là l'inconvénient."
L'un des cas cités par ChatGPT pour Crabill était Gonzales c. Allstate Ins. Co. de 2014. ChatGPT a déclaré que dans cette affaire, la défenderesse ne s'était pas présentée à une audience, mais le tribunal a jugé son absence excusable. Mais cette affaire n’existe pas, du moins pas dans son intégralité. Il existe une affaire Gonzales c. Allstate Ins. Co., mais elle date de 2002 et concerne un différend concernant une police d’assurance après un accident survenu à l’extérieur du pays.
"Sur la base de l'exactitude des réponses validées antérieures et de l'exactitude apparente des citations de jurisprudence, je n'ai jamais réalisé que cette technologie pouvait être trompeuse", a déclaré Crabill dans des documents judiciaires.
Crabill affirme qu'il a déposé la requête sans savoir qu'il citait de faux cas. Le jour de l'audience, il s'est rendu compte de son erreur. Dans un message adressé à l’un des assistants juridiques du cabinet d’avocats Baker, il a déclaré qu’il pensait que tous les cas cités par ChatGPT étaient des « déchets » et qu’il ne pouvait pas les trouver dans LexisNexis.
Le juge supervisant l’audience n’a pas non plus pu trouver les dossiers et a rejeté la requête en raison de fausses citations. Il a alors menacé de porter plainte contre l'avocat. Le Règlement du Bureau des Avocats n’a pas pu confirmer si une plainte avait été déposée contre Crabill.
Lama a déclaré que Crabill avait violé son « devoir de franchise envers le tribunal » – l’obligation d’un avocat de ne pas faire de fausses déclarations substantielles sur les faits ou le droit. Même si Lama voit les avantages de la technologie de l’IA, il existe des dangers évidents, a-t-il déclaré.
"Quelqu'un utilise un logiciel qui génère des informations inexactes et il se contente de les soumettre au tribunal - il y a un danger là-bas", a déclaré Lama.
Lama a même plaisanté en disant qu’il ne voulait pas que l’IA « le mette au chômage ».
Cependant, Williams est plus optimiste. Tout en affirmant que la technologie constitue une menace pour les emplois existants, il a également déclaré qu’elle en créerait de nouveaux.
"Il a certainement un avenir sur le marché du travail, car il est déjà utilisé", a déclaré Williams en faisant référence à une société de marketing qui utilisait ChatGPT pour rédiger des brouillons.
"Cela nous donne l'opportunité de voir des choses ou d'imaginer des choses qui ne nous seraient peut-être pas venues à l'esprit autrement", a déclaré Williams.
Mais la créativité de l’IA peut aussi apporter du « mensonge », a-t-il déclaré.
"Dans ce cas particulier, il a fallu des données existantes, des informations existantes, et les a faussées", a déclaré Williams.