Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3014

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat de New York admet qu'il a utilisé ChatGPT pour déposer de "faux" documents judiciaires
nypost.com · 2023

Un avocat d'un cabinet respecté de Tribeca a admis avoir cité plusieurs «fausses» poursuites qui, selon lui, avaient renforcé son dossier – parce qu'il avait utilisé un chatbot d'intelligence artificielle pour aider à rédiger le dossier du tribunal fédéral de Manhattan.

L'aveu choquant de Steven Schwartz, un avocat du cabinet Levidow, Levidow & Oberman, est intervenu après qu'il a [demandé à ChatGPT](https://nypost.com/2023/05/14/can-chatgpt-help-you-land-your -next-dream-job/) pour trouver des cas pertinents pour le procès de son client – seulement pour que le bot les fabrique entièrement, selon les documents judiciaires.

Le snafu a commencé après que le partenaire juridique de Schwartz, Paul LoDuca, a intenté une action en justice contre la compagnie aérienne colombienne Avianca au nom de Robert Mata, qui aurait été blessé lorsqu'un chariot de service en métal lui a heurté le genou lors d'un vol à destination de New York.

Lorsque les avocats de la compagnie aérienne ont demandé au tribunal de porter plainte, Schwartz a déposé un mémoire qui aurait cité plus d'une demi-douzaine d'affaires pertinentes.

Il n'y avait qu'un seul problème : les affaires, telles que Miller c. United Airlines, Petersen c. Iran Air et Varghese c. China Southern Airlines, étaient complètement inventées [par ChatGPT](https://nypost.com/2023/05 /30/nvidia-hits-1t-in-market-value-on-booming-chatgpt-ai-demand/).

"Le tribunal est confronté à une circonstance sans précédent", a écrit le juge fédéral de Manhattan P. Kevin Castel dans un [document du 4 mai](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts .nysd.575368.31.0.pdf), rapporté pour la première fois par The New York Times samedi , appelant Schwartz et LoDucan à comparaître pour une audience le 8 juin pour faire face à d'éventuelles sanctions concernant le dépôt de sourcils.

"Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a écrit Castel.

Dans un affidavit sous serment déposé la semaine dernière, Schwartz a admis avoir utilisé ChatGPT pendant compilant les documents que Loduca a déposés, écrivant qu'il "s'est appuyé sur les avis juridiques qui lui ont été fournis par une source qui s'est révélée peu fiable".

Le mea culpa signé a poursuivi en disant que Schwartz "n'était pas au courant de la possibilité que son contenu [ChatGPT] puisse être faux".

L'avocat en disgrâce a également déclaré au juge qu'il "regrette beaucoup" d'utiliser l'IA pour la "recherche" juridique et "ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".

Peter Loduca a écrit la semaine dernière dans un affidavit qu'il n'était pas impliqué dans le méfait et « n'avait aucune raison de douter de l'authenticité de la jurisprudence » fabriquée dans le document.

Loduca a ajouté qu'il avait travaillé avec Schwartz pendant 25 ans et qu'il ne s'était jamais souvenu qu'il avait cherché à "induire en erreur" un tribunal.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd