Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3046

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat accuse ChatGPT de " fausses citations "
canadianlawyermag.com · 2023

Un avocat avec plus de 30 ans de pratique derrière lui a utilisé ChatGPT pour une affaire – prétendument pour la première fois de sa carrière – et fait maintenant l'objet d'une procédure disciplinaire prévue pour une audience en juin.

Dans Mata c. Avianca, Inc., une affaire actuellement jugée devant le tribunal de district américain du district sud de New York, le demandeur Mata a poursuivi la compagnie aérienne Avianca après qu'un employé s'est cogné le genou avec un chariot de service lors d'un vol en 2019 depuis El Salvador à New York.

Avianca a répondu que le délai de prescription pour la poursuite avait expiré et a demandé au tribunal de rejeter l'affaire contre elle.

Le plaignant s'est opposé avec un mémoire de 10 pages citant la jurisprudence pour étayer l'affirmation selon laquelle le procès de Mata avait été déposé à temps. Parmi les décisions de justice citées par les avocats de Mata figurent Martinez contre Delta Air Lines, Zicherman contre Korean Air Lines et Varghese contre China Southern Airlines, a rapporté le New York Times.

Lorsque les avocats d'Avianca ont écrit au juge de district pour dire qu'ils ne trouvaient aucune des décisions citées dans le mémoire, le tribunal a ordonné au demandeur de fournir un affidavit annexant certains des cas cités, ce que le demandeur [a](https://storage .courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.29.1.pdf).

"Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a écrit le juge de district dans une [ordonnance datée du 4 mai 2023](https://storage.courtlistener.com/recap/gov. uscourts.nysd.575368/gov.uscourts.nysd.575368.31.0.pdf). « Vous trouverez ci-dessous une ordonnance indiquant pourquoi l'avocat du demandeur ne devrait pas être sanctionné. »

C'est alors que Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman a finalement admis qu'il avait utilisé ChatGPT pour "compléter les recherches juridiques effectuées" par lui pour le mémoire de Mata, et que ChatGPT avait fourni six citations sur lesquelles il s'était alors appuyé mais qui "ce tribunal a jugé inexistant".

Dans son affidavit, Schwartz a expliqué qu'il n'avait jamais utilisé "Chat GPT" pour la recherche juridique dans "plus de trente ans de pratique" auparavant et n'était pas conscient que sa sortie pouvait être fausse.

Schwartz a joint à son affidavit des captures d'écran de sa conversation avec ChatGPT qui montraient qu'il avait demandé au grand modèle linguistique (LLM) si Varghese c. China Southern Airlines était un cas réel. ChatGPT avait répondu par l'affirmative.

"Après une double vérification, j'ai découvert que l'affaire Varghese c. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), existe bel et bien et peut être trouvée sur des bases de données de recherche juridique telles que Westlaw et LexisNexis ", a déclaré ChatGPT lorsque Schwartz lui a demandé sa source.

Schwartz a admis que c'était de sa faute de ne pas avoir confirmé les sources fournies par le LLM. Il a exprimé son regret de s'être appuyé sur ChatGPT et a promis au tribunal de district qu'il ne le ferait plus jamais "sans vérification absolue de son authenticité".

Bart Banino, un avocat d'Avianca, a déclaré au New York Times que son cabinet, Condon & Forsyth, s'était spécialisé dans le droit de l'aviation et avait immédiatement soupçonné qu'AI avait été impliquée dans la production des "fausses" citations dans le dossier de Mata.

Cabinet de recherche et de conseil en technologie Gartner [récemment averti les responsables juridiques et de conformité](https://www.thelawyermag.com/au/news/general/gartner-ids-six-chatgpt-legal-and-compliance-risks-to-stay -ahead-of/446578?__hstc=208808397.aa3675558db3d757eec905f181576c47.1685498837165.1685498837165.1685498837165.1&__hssc=208808397.1. 1685498837165&__hsfp=1374498491) que les outils LLM, y compris ChatGPT, étaient susceptibles de fournir des informations plausibles mais incorrectes appelées "hallucinations".

L'audience du juge de district américain Mata v. Avianca a appelé la situation une "circonstance sans précédent" et a ordonné une audience le 8 juin pour discuter d'éventuelles sanctions contre Schwartz.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd