Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3155

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Les avocats de ChatGPT doivent envisager de demander pardon
nytimes.com · 2023

Un juge de Manhattan a infligé jeudi une amende de 5 000 dollars à deux avocats qui avaient préparé un dossier juridique [mémoire rempli d'affaires et de citations inventées, toutes générées par le programme d'intelligence artificielle ChatGPT](https://www.nytimes.com/2023/05 /27/nyregion/avianca-airline-lawsuit-chatgpt.html), puis l'a soumis au tribunal.

Le juge, P. Kevin Castel du Federal District Court, a également sévèrement critiqué les actions des avocats et leur a ordonné d'envoyer une copie de son opinion à chacun des juges réels dont les noms figuraient sur les fausses opinions produites par ChatGPT.

Le juge Castel a écrit qu'il n'exigerait pas des avocats, Steven A. Schwartz et Peter LoDuca, qu'il appelés répondants, de s'excuser auprès des juges dont les noms figuraient sur les fausses opinions "parce que des excuses forcées ne sont pas des excuses sincères".

"Toute décision de présenter des excuses est laissée aux intimés", a ajouté le juge.

La découverte de l'utilisation de ChatGPT dans la création du dossier dans un procès par ailleurs banal à Manhattan s'est répercutée dans toute la profession juridique. La révélation a également fasciné la communauté technologique, où il y a eu un débat sur les dangers d'une dépendance excessive à l'intelligence artificielle – même en tant que menace existentielle potentielle pour l'humanité.

"De nombreux préjudices découlent de la soumission de fausses opinions", a écrit le juge. « La partie adverse perd du temps et de l'argent à dénoncer la supercherie. Le temps du tribunal est pris sur d’autres efforts importants.

Le juge Castel a ajouté que l'action des avocats "favorise le cynisme à l'égard de la profession d'avocat et du système judiciaire américain. Et un futur justiciable peut être tenté de défier une décision de justice en invoquant malhonnêtement le doute sur son authenticité.

La décision de jeudi fait suite à une audience du 8 juin au cours de laquelle le juge Castel a grillé M. Schwartz et M. LoDuca sur la façon dont ils en sont venus à déposer le dossier dans la poursuite dans laquelle leur client, Roberto Mata, cherche à tenir la compagnie aérienne Avianca responsable d'une blessure qu'il dit avoir subie lorsqu'un chariot de service en métal lui a heurté le genou lors d'un vol en août 2019 du Salvador à New York.

Après qu'Avianca ait demandé de rejeter l'action en raison de l'expiration du délai de prescription, M. Schwartz a préparé un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice portant des noms tels que Martinez contre Delta Air Lines, Varghese contre China Southern Airlines et Zicherman c. Korean Air Lines, pour faire valoir que la poursuite devrait être autorisée à se poursuivre.

Parce que M. Schwartz n'a pas été admis à exercer devant le tribunal fédéral de Manhattan, son partenaire, M. LoDuca est devenu l'avocat du dossier et a signé le mémoire, qui a été déposé en mars. 1.

Deux semaines plus tard, les avocats d'Avianca, Bart Banino et Marissa Lefland, ont répondu qu'ils étaient "incapables de localiser la plupart de la jurisprudence" citée dans le mémoire, et que les quelques cas qu'ils ont pu trouver "ne tiennent pas compte des propositions pour lesquelles ils sont cité. »

Lors de l'audience du 8 juin, M. Schwartz, qui pratique le droit depuis trois décennies, a déclaré au juge qu'il avait utilisé ChatGPT parce que son cabinet, Levidow, Levidow & Oberman, n'avait pas de base de données avec accès aux affaires fédérales et qu'il ne pouvait pas trouver quoi dont il avait besoin sur Google.

"J'ai entendu parler de ce nouveau site", a déclaré M. Schwartz, "que j'ai supposé à tort être, comme, un super moteur de recherche."

"Je n'aurais jamais pu imaginer que ChatGPT produirait des cas fabriqués", a-t-il déclaré.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd