Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3181

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Des avocats condamnés à une amende pour avoir déposé une fausse jurisprudence créée par ChatGPT
cbsnews.com · 2023

Un juge fédéral a imposé jeudi des amendes de 5 000 $ à deux avocats et à un cabinet d'avocats dans un cas sans précédent dans lequel ChatGPT a été blâmé pour leur [soumission de recherche juridique fictive](https://www.cbsnews.com/news/lawyer-chatgpt- court-filing-avianca/) dans le cadre d'une réclamation pour blessure liée à l'aviation.

Le juge P. Kevin Castel a déclaré avoir agi de mauvaise foi. Mais il a crédité leurs excuses et les mesures correctives prises pour expliquer pourquoi des sanctions plus sévères n'étaient pas nécessaires pour s'assurer qu'eux-mêmes ou d'autres ne laisseront plus les outils d'intelligence artificielle les inciter à produire de faux antécédents juridiques dans leurs arguments.

"Les progrès technologiques sont monnaie courante et il n'y a rien de fondamentalement inapproprié à utiliser un outil d'intelligence artificielle fiable pour l'assistance", a écrit Castel. "Mais les règles existantes imposent un rôle de contrôle aux avocats pour garantir l'exactitude de leurs déclarations."

Plus tôt ce mois-ci, un juge du Texas a ordonné aux avocats d'attester qu'ils n'utiliseraient pas ChatGPT ou une autre technologie d'intelligence artificielle générative pour rédiger des mémoires juridiques, car l'outil d'IA peut inventer des faits.

Le juge a déclaré que les avocats et leur cabinet, Levidow, Levidow & Oberman, P.C., "ont abandonné leurs responsabilités lorsqu'ils ont soumis des avis judiciaires inexistants avec de fausses citations et citations créées par l'outil d'intelligence artificielle ChatGPT, puis ont continué à respecter les fausses opinions. après que des ordonnances judiciaires eurent remis en cause leur existence."

Dans un communiqué, le cabinet d'avocats a déclaré qu'il se conformerait à l'ordonnance de Castel, mais a ajouté: "Nous sommes respectueusement en désaccord avec la conclusion selon laquelle quiconque dans notre cabinet a agi de mauvaise foi. Nous avons déjà présenté nos excuses à la Cour et à notre client. Nous continuons de croire que face à ce que même la Cour a reconnu être une situation sans précédent, nous avons commis une erreur de bonne foi en ne croyant pas qu'un morceau de technologie puisse fabriquer des affaires à partir de tout.

L'entreprise a déclaré qu'elle envisageait de faire appel.

Faux cas

Castel a déclaré que la mauvaise foi résultait de l'incapacité des avocats à répondre correctement au juge et à leurs adversaires légaux lorsqu'il a été remarqué que six affaires judiciaires répertoriées pour étayer leurs arguments écrits du 1er mars n'existaient pas.

Le juge a cité des "explications changeantes et contradictoires" fournies par l'avocat Steven A. Schwartz. Il a déclaré que l'avocat Peter LoDuca avait menti au sujet d'être en vacances et avait été malhonnête en confirmant la véracité des déclarations soumises à Castel.

Lors d'une audience plus tôt ce mois-ci, Schwartz a déclaré qu'il avait utilisé le chatbot alimenté par l'intelligence artificielle pour l'aider à trouver des précédents juridiques à l'appui de l'affaire d'un client contre la compagnie aérienne colombienne Avianca pour une blessure subie lors d'un vol en 2019.

Microsoft a investi environ 1 milliard de dollars dans OpenAI, la société derrière ChatGPT.

Le chatbot, qui génère des réponses de type essai aux invites des utilisateurs, a suggéré plusieurs cas impliquant des accidents d'aviation que Schwartz n'avait pas été en mesure de trouver par les méthodes habituelles utilisées dans son cabinet d'avocats. Plusieurs de ces cas n'étaient pas réels, des juges mal identifiés ou impliquaient des compagnies aériennes qui n'existaient pas.

Les décisions inventées comprenaient des affaires intitulées Martinez contre Delta Air Lines, Zicherman contre Korean Air Lines et Varghese contre China Southern Airlines.

Le juge a déclaré que l'une des fausses décisions générées par le chatbot "présentait certains traits qui sont superficiellement cohérents avec les décisions judiciaires réelles", mais il a déclaré que d'autres parties contenaient du "charabia" et étaient "absurdes".

Dans une opinion écrite distincte, le juge a rejeté la réclamation sous-jacente de l'aviation, affirmant que le délai de prescription avait expiré.

Les avocats de Schwartz et LoDuca n'ont pas immédiatement répondu à une demande de commentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd