Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3497

Incidents associés

Incident 6154 Rapports
Colorado Lawyer Filed a Motion Citing Hallucinated ChatGPT Cases

Loading...
Ces avocats ont utilisé ChatGPT pour gagner du temps. Ils ont été licenciés et condamnés à une amende.
washingtonpost.com · 2023

Zachariah Crabill avait quitté ses études de droit depuis deux ans, épuisé et nerveux, lorsque ses patrons ont ajouté une autre affaire à sa charge de travail en mai dernier. Il a travaillé pendant des heures pour rédiger une motion jusqu'à ce qu'il ait une idée : Peut-être que ChatGPT pourrait aider ?

En quelques secondes, le chatbot d’intelligence artificielle avait complété le document. Crabill l'a envoyé à son patron pour examen et l'a déposé auprès du tribunal du Colorado.

"J'étais ravi du mal de tête que cela m'a sauvé", a-t-il déclaré au Washington Post. Mais son soulagement fut de courte durée. En examinant le dossier, il s'est rendu compte avec horreur que le chatbot IA avait inventé plusieurs fausses citations de poursuites.

Crabill, 29 ans, s'est excusé auprès du juge, expliquant qu'il avait utilisé un chatbot IA. Le juge l'a dénoncé à un bureau à l'échelle de l'État qui traite les plaintes des avocats, a déclaré Crabill. En juillet, il a été licencié de son cabinet d'avocats de Colorado Springs. Avec le recul, Crabill n'utiliserait pas ChatGPT, mais affirme qu'il peut être difficile de résister pour un avocat débutant débordé.

"Tout cela est tellement nouveau pour moi", a-t-il déclaré. "Je ne savais tout simplement pas quoi faire ni vers qui me tourner."

Les analystes commerciaux et les entrepreneurs [ont prédit depuis longtemps](https://www.washingtonpost.com/news/innovations/wp/2017/09/14/this-silicon-valley-startup-wants-to-replace-lawyers-with- robots/?itid=lk_inline_manual_10) que la profession juridique serait perturbée par l'automatisation. Alors qu’une nouvelle génération d’outils linguistiques d’IA déferle sur l’industrie, ce moment semble être arrivé.

Les avocats stressés se tournent vers les chatbots pour rédiger des mémoires fastidieux. Les cabinets d’avocats utilisent des outils linguistiques d’IA pour passer au crible des milliers de documents de cas, remplaçant ainsi le travail des associés et des parajuristes. Les assistants juridiques IA aident les avocats à analyser les documents, les mémos et les contrats en quelques minutes.

Le marché des logiciels juridiques d'IA pourrait passer de 1,3 milliard de dollars en 2022 à plus de 8,7 milliards de dollars d'ici 2030, selon une [analyse de l'industrie](https://www.reportlinker.com/p06032048/Global-Legal-AI-Software-Industry. html?utm_source=GNW) par la société d'études de marché Global Industry Analysts. Un rapport de Goldman Sachs d'avril estimait que 44 % des dépenses légales les emplois pourraient être automatisés, plus que tout autre secteur, à l'exception du travail administratif.

Mais ces outils permettant d’économiser de l’argent peuvent avoir un coût. Certains chatbots IA ont tendance à fabriquer des faits, ce qui entraîne le licenciement ou une amende d'avocats. voir des dossiers rejetés. Les professionnels du droit s'empressent de créer des lignes directrices pour l'utilisation de la technologie, afin d'éviter que des inexactitudes ne gâchent des affaires majeures. En août, l’American Bar Association a lancé un groupe de travail d’une durée d’un an pour étudier les impacts de l’IA sur la pratique du droit.

"C'est révolutionnaire", a déclaré John Villasenor, chercheur principal au centre d'innovation technologique de la Brookings Institution. "Mais ce n'est pas magique."

Un assistant juridique transporte des cartons alors qu'il arrive au procès des actionnaires d'Elon Musk au Phillip Burton Federal Building à San Francisco le 20 janvier. (Justin Sullivan/Getty Images)

Les outils d'IA qui lisent et analysent rapidement les documents permettent aux cabinets d'avocats d'offrir des services moins chers et d'alléger la charge de travail des avocats, a déclaré Villasenor. Mais cette aubaine peut aussi constituer un champ de mines éthique lorsqu’elle entraîne des erreurs très médiatisées.

Au printemps, Lydia Nicholson, avocate spécialisée en droit du logement à Los Angeles, a reçu un mémoire juridique concernant le dossier d'expulsion de son client. Mais quelque chose semblait bizarre. Le document cite des poursuites qui ne sonnent rien. Nicholson, qui utilise les pronoms « ils/eux », a fait quelques recherches et s’est rendu compte que beaucoup d’entre eux étaient faux.

Ils en ont discuté avec des collègues et "les gens ont suggéré : 'Oh, cela semble être quelque chose que l'IA aurait pu faire'", a déclaré Nicholson dans une interview.

Nicholson a déposé une requête contre le cabinet d'avocats Dennis Block, un important cabinet d'expulsion en Californie, soulignant les erreurs. Un juge a accepté après une enquête indépendante et a imposé au groupe une amende de 999 $. Le cabinet a accusé un jeune avocat nouvellement embauché dans son bureau d'avoir utilisé « [recherche en ligne](https://laist.com/news/housing-homelessness/dennis-block-chatgpt-artificial-intelligence-ai-eviction-court- los-angeles-avocat-sanction-logement-locataire-propriétaire)" pour rédiger la requête et a déclaré qu'elle avait démissionné peu de temps après le dépôt de la plainte. Plusieurs experts en IA ont analysé le briefing et l'ont proclamé "probablement" généré par l'IA, selon le site média LAist.

La société Dennis Block n'a pas répondu à une demande de commentaire.

Partager cet articleAucun abonnement requis pour lirePartager

Il n'est pas surprenant que les chatbots IA inventent des citations juridiques lorsqu'on leur demande de rédiger un mémoire, a déclaré Suresh Venkatasubramanian, informaticien et directeur du Center for Technology Responsibility de l'Université Brown.

"Ce qui est surprenant, c'est qu'ils produisent quelque chose d'assez précis", a-t-il déclaré. "Ce n'est pas pour cela qu'ils sont construits."

Au contraire, les chatbots comme ChatGPT sont conçus pour engager des conversations, après avoir été formés sur de grandes quantités de textes publiés pour composer des réponses plausibles à presque n'importe quelle invite. Ainsi, lorsque vous demandez à ChatGPT un mémoire juridique, il sait que les mémoires juridiques incluent des citations --- mais il n'a pas réellement lu la jurisprudence pertinente, il invente donc des noms et des dates qui semblent réalistes.

Les juges ont du mal à savoir comment gérer ces erreurs. Certains interdisent l’utilisation de l’IA dans leur salle d’audience. D’autres demandent aux avocats de signer un engagement à divulguer s’ils ont utilisé l’IA dans leur travail. Le barreau de Floride étudie une proposition visant à exiger que les avocats aient l'autorisation d'un client pour utiliser l'IA.

Un point de discussion parmi les juges est de savoir si les codes d'honneur exigeant que les avocats jurent sur l'exactitude de leur travail s'appliquent à l'IA générative, a déclaré John G. Browning, un ancien juge du tribunal de district du Texas.

Les drapeaux des États-Unis et du Texas flottent devant le palais de justice du comté de Smith à Tyler, au Texas, le 9 décembre 2022. (Jeffrey McWhorter/pour le Washington Post)

Browning, qui préside le groupe de travail sur l'IA du barreau de l'État du Texas, a déclaré que son groupe envisageait une poignée d'approches pour réglementer l'utilisation, comme exiger que les avocats suivent des cours de formation professionnelle en technologie ou envisager des règles spécifiques pour les cas où les preuves générées par l'IA peuvent être inclus.

Lucy Thomson, avocate et ingénieure en cybersécurité de la région de Washington qui préside le groupe de travail sur l'IA de l'American Bar Association, a déclaré que l'objectif est d'éduquer les avocats sur les risques et les avantages potentiels de l'IA. Le barreau n’a pas encore pris de position formelle sur l’opportunité d’interdire l’IA dans les salles d’audience, a-t-elle ajouté, mais ses membres discutent activement de la question.

"Beaucoup d'entre eux pensent qu'il n'est pas nécessaire ou approprié que les juges interdisent l'utilisation de l'IA", a déclaré Thomson, "parce qu'il ne s'agit que d'un outil, au même titre que les autres outils de recherche juridique".

Dans le même temps, l'IA est de plus en plus utilisée pour la « e-discovery » – la recherche de preuves dans les communications numériques, telles que les e-mails, les chats ou les outils de travail en ligne.

Alors que les générations précédentes de technologie permettaient aux utilisateurs de rechercher des mots-clés et des synonymes spécifiques dans des documents, les modèles d'IA actuels ont le potentiel de faire des inférences plus sophistiquées, a déclaré Irina Matveeva, responsable de la science des données et de l'IA chez Reveal, une société de technologie juridique basée à Chicago. Par exemple, les outils d'IA générative auraient pu permettre à un avocat chargé de l'affaire Enron de demander : « Quelqu'un a-t-il eu des inquiétudes concernant la valorisation d'Enron ? et obtenez une réponse basée sur l'analyse des documents par le modèle.

Wendell Jisa, PDG de Reveal, a ajouté qu'il pensait que les outils d'IA dans les années à venir "apporteront une véritable automatisation à la pratique du droit - éliminant ainsi le besoin de cette interaction humaine des avocats qui cliquent quotidiennement sur leurs e-mails".

Jason Rooks, directeur de l'information d'un district scolaire du Missouri, a déclaré qu'il avait commencé à être submergé pendant la pandémie coronavirus avec des demandes de dossiers électroniques de la part des parents. plaider dans des batailles pour la garde ou des organisations poursuivre les écoles en justice pour leurs politiques liées au covid-19. À un moment donné, estime-t-il, il passait près de 40 heures par semaine à parcourir ses e-mails.

Au lieu de cela, il a utilisé un outil de découverte électronique appelé Logikcull, qui affirme utiliser l’IA pour passer au crible les documents et prédire lesquels sont les plus susceptibles d’être pertinents pour une affaire donnée. Rooks pouvait ensuite examiner manuellement ce plus petit sous-ensemble de documents, ce qui réduisait de plus de moitié le temps qu'il consacrait à chaque cas. (Révéler l'acquisition de Logikcull en août, création d'une entreprise de technologie juridique évaluée à plus d'un milliard de dollars.)

Mais même l'utilisation de l'IA pour des travaux juridiques fastidieux tels que la découverte électronique comporte des risques, a déclaré Venkatasubramanian, le professeur Brown : « S'ils ont été assignés à comparaître et qu'ils produisent certains documents et pas d'autres à cause d'une erreur ChatGPT --- je suis pas un avocat, mais cela pourrait poser un problème. »

Ces avertissements n'arrêteront pas des gens comme Crabill, dont les mésaventures avec ChatGPT ont été [rapportées pour la première fois](https://krdo.com/news/2023/06/13/colorado-springs-attorney-says-chatgpt-created-fake- cas-il-cite-dans-les-documents-judiciaires/) par la station de radio du Colorado KRDO. Après avoir soumis une requête chargée d’erreurs, l’affaire a été rejetée pour des raisons indépendantes.

Il dit qu’il continue de croire que l’IA est l’avenir du droit. Il possède désormais sa propre entreprise et affirme qu'il utilisera probablement des outils d'IA conçus spécifiquement pour les avocats pour l'aider dans sa rédaction et ses recherches, au lieu de ChatGPT. Il a dit qu'il ne voulait pas être laissé pour compte.

"Cela ne sert à rien d'être un opposant", a déclaré Crabill, "ou d'être contre quelque chose qui deviendra invariablement la voie de l'avenir".

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd