Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3149

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
L'avocat de ChatGPT s'explique
nytimes.com · 2023

Au début de l'audience du tribunal de Manhattan, l'avocat, Steven A. Schwartz, est apparu nerveusement optimiste, souriant tout en discutant avec son équipe juridique. Près de deux heures plus tard, M. Schwartz était assis affaissé, les épaules tombantes et la tête dépassant à peine du dossier de sa chaise.

Pendant près de deux heures jeudi, M. Schwartz a été interrogé par un juge lors d'une audience ordonnée après la révélation que l'avocat avait créé un dossier juridique pour une affaire devant le tribunal de district fédéral qui était rempli de faux avis judiciaires et de citations juridiques, tous générés par ChatGPT. Le juge, P. Kevin Castel, a déclaré qu'il allait maintenant examiner l'opportunité d'imposer des sanctions à M. Schwartz et à son partenaire, Peter LoDuca, dont le nom figurait sur le dossier.

À certains moments au cours de l'audience, M. Schwartz a fermé les yeux et s'est frotté le front de la main gauche. Il balbutia et sa voix baissa. Il a tenté à plusieurs reprises d'expliquer pourquoi il n'avait pas mené d'autres recherches sur les cas que ChatGPT lui avait fournis.

"Dieu, j'aurais aimé faire ça, et je ne l'ai pas fait", a déclaré M. Schwartz, ajoutant qu'il se sentait gêné, humilié et plein de remords.

"Je n'avais pas compris que ChatGPT pouvait fabriquer des cas", a-t-il déclaré au juge Castel.

Contrairement aux postures contrites de M. Schwartz, le juge Castel gesticulait souvent d'exaspération, sa voix s'élevant lorsqu'il posait des questions pointues. À plusieurs reprises, le juge a levé les deux bras en l'air, paumes vers le haut, tout en demandant à M. Schwartz pourquoi il ne faisait pas mieux de vérifier son travail.

Alors que M. Schwartz répondait aux questions du juge, la réaction dans la salle d'audience, bondée de près de 70 personnes, dont des avocats, des étudiants en droit, des auxiliaires juridiques et des professeurs, s'est répercutée sur les bancs. Il y eut des halètements, des rires et des soupirs. Les spectateurs grimaçaient, jetaient des regards alentour, mâchaient des stylos.

"J'ai continué à être dupé par ChatGPT. C'est embarrassant », a déclaré M. Schwartz.

Un spectateur laissa échapper un sifflement doux et descendant.

L'épisode, qui a surgi dans un procès autrement obscur, a fasciné le monde de la technologie, où il y a eu un débat croissant sur les dangers - même une menace existentielle pour l'humanité - posés par l'intelligence artificielle. Il a également bouleversé les avocats et les juges.

"Cette affaire s'est répercutée sur l'ensemble de la profession juridique", a déclaré David Lat, un commentateur juridique. "C'est un peu comme regarder une épave de voiture."

L'affaire impliquait un homme du nom de Roberto Mata, qui avait poursuivi la compagnie aérienne Avianca, affirmant qu'il avait été blessé lorsqu'un chariot de service en métal lui avait heurté le genou lors d'un vol d'août 2019 entre El Salvador et New York.

Avianca a demandé au juge Castel de rejeter le procès parce que le délai de prescription avait expiré. Les avocats de M. Mata ont répondu par un mémoire de 10 pages citant plus d'une demi-douzaine de décisions de justice, avec des noms comme Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines, à l'appui de leur argument selon lequel la poursuite devrait être autorisée à se poursuivre.

Après que les avocats d'Avianca n'aient pas pu localiser les affaires, le juge Castel a ordonné aux avocats de M. Mata de fournir des copies. Ils ont soumis un recueil de décisions.

Il s'est avéré que les cas n'étaient pas réels.

M. Schwartz, qui a pratiqué le droit à New York pendant 30 ans, a déclaré dans une déclaration déposée auprès du juge cette semaine qu'il avait entendu parler de ChatGPT par ses enfants d'âge universitaire et par des articles, mais qu'il ne l'avait jamais utilisé professionnellement.

Il a déclaré jeudi au juge Castel qu'il pensait que ChatGPT avait une plus grande portée que les bases de données standard.

"J'ai entendu parler de ce nouveau site, que j'ai supposé à tort être, comme, un super moteur de recherche", a déclaré M. Schwartz.

Des programmes comme ChatGPT et d'autres grands modèles de langage produisent en fait des réponses réalistes en analysant quels fragments de texte doivent suivre d'autres séquences, sur la base d'un modèle statistique qui a ingéré des milliards d'exemples tirés de partout sur Internet.

Irina Raicu, qui dirige le programme d'éthique sur Internet à l'Université de Santa Clara, a déclaré cette semaine que l'affaire Avianca montrait clairement ce que les détracteurs de ces modèles ont dit, "c'est que la grande majorité des gens qui jouent avec eux et les utilisent ne comprennent pas vraiment ce qu'ils sont et comment ils fonctionnent, et en particulier quelles sont leurs limites."

Rebecca Roiphe, professeur à la faculté de droit de New York qui étudie la profession juridique, a déclaré que l'imbroglio a alimenté une discussion sur la manière dont les chatbots peuvent être intégrés de manière responsable dans la pratique du droit.

"Cette affaire en a changé l'urgence", a déclaré le professeur Roiphe. "On a le sentiment que ce n'est pas quelque chose sur lequel nous pouvons réfléchir de manière académique. C'est quelque chose qui nous a touchés en ce moment et qui doit être traité_."_

La publicité mondiale engendrée par l'épisode devrait servir d'avertissement, a déclaré Stephen Gillers, qui enseigne l'éthique à la faculté de droit de l'Université de New York. "Paradoxalement, cet événement a une doublure argentée involontaire sous forme de dissuasion", a-t-il déclaré.

Il n'y avait pas de bon côté dans la salle d'audience 11-D jeudi. À un moment donné, le juge Castel a interrogé M. Schwartz sur l'une des fausses opinions, lisant quelques lignes à haute voix.

"Pouvons-nous convenir que c'est du charabia juridique?" dit le juge Castel.

Après qu'Avianca ait renvoyé l'affaire devant le tribunal fédéral, où M. Schwartz n'est pas autorisé à exercer, M. LoDuca, son associé chez Levidow, Levidow & Oberman, est devenu l'avocat au dossier.

Dans un affidavit le mois dernier, M. LoDuca a déclaré au juge Castel qu'il n'avait joué aucun rôle dans la conduite de la recherche. Le juge Castel a interrogé jeudi M. LoDuca au sujet d'un document déposé sous son nom demandant que la poursuite ne soit pas rejetée.

"Avez-vous lu l'un des cas cités?" a demandé le juge Castel.

"Non", a répondu M. LoDuca.

« Avez-vous fait quelque chose pour vous assurer que ces cas existaient ?

Pas encore.

Les avocats de M. Schwartz et de M. LoDuca ont demandé au juge de ne pas punir leurs clients, affirmant que les avocats avaient pris leurs responsabilités et qu'il n'y avait pas eu de faute intentionnelle.

Dans la déclaration que M. Schwartz a déposée cette semaine, il a décrit comment il avait posé des questions à ChatGPT, et à chaque fois cela semblait aider avec de véritables citations de cas. Il a joint une copie imprimée de son entretien avec le bot, qui le montre en train de lancer des mots comme "sûr" et "certainement !"

Après une réponse, ChatGPT a dit joyeusement : "J'espère que cela vous aidera !"

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd