Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3026

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
ChatGPT a cité des cas "faux" pour un dépôt devant un tribunal fédéral de New York. Les avocats impliqués s'exposent à des sanctions.
cnbc.com · 2023

Le procès de Roberto Mata contre Avianca Airlines n'était pas si différent de beaucoup d'autres poursuites pour lésions corporelles déposées devant le tribunal fédéral de New York. Mata et son avocat, Peter LoDuca, ont allégué qu'Avianca avait causé des blessures à Mata lorsqu'il avait été "frappé par un chariot de service en métal" à bord d'un vol de 2019 à destination de New York.

Avianca a proposé de rejeter l'affaire. Comme on pouvait s'y attendre, les avocats de Mata se sont opposés à la requête et ont cité diverses décisions judiciaires, comme c'est généralement le cas dans les prises de bec dans les salles d'audience. Puis tout s'est effondré.

Les avocats d'Avianca ont déclaré au tribunal qu'il ne pouvait pas trouver de nombreux cas juridiques que LoDuca avait cités dans sa réponse. Le juge fédéral P. Kevin Castel a exigé que LoDuca fournisse des copies de neuf décisions judiciaires qui auraient été utilisées.

En réponse, LoDuca a déposé le texte intégral de huit affaires devant un tribunal fédéral. Mais le problème n'a fait que s'aggraver, a déclaré Castel dans un dossier, parce que les textes étaient fictifs, citant ce qui semblait être "de fausses décisions judiciaires avec de fausses citations et de fausses citations internes".

Le coupable, il finirait par émerger, était ChatGPT. Le chatbot populaire d'OpenAI avait "halluciné" - un terme désignant le moment où les systèmes d'intelligence artificielle inventent simplement de fausses informations - et a craché des cas et des arguments qui étaient entièrement fictifs. Il est apparu que LoDuca et un autre avocat, Steven Schwartz, avaient utilisé ChatGPT pour générer les requêtes et le texte juridique ultérieur.

Schwartz, un associé du cabinet d'avocats Levidow, Levidow & Oberman, a déclaré au tribunal qu'il avait été celui qui travaillait sur ChatGPT, et que LoDuca n'avait "aucun rôle dans la réalisation de la recherche en question", ni "aucune connaissance de la façon dont ledit des recherches ont été menées. »

L'avocat adverse et le juge avaient d'abord réalisé que les cas n'existaient pas, offrant aux avocats impliqués l'occasion d'admettre l'erreur.

LoDuca et son entreprise, cependant, semblaient doubler l'utilisation de ChatGPT, l'utilisant non seulement pour le dépôt initialement problématique, mais pour générer de fausses décisions juridiques lorsqu'on leur demandait de les fournir. Maintenant, LoDuca et Schwartz pourraient faire face à une sanction judiciaire, une décision qui pourrait même conduire à la radiation.

La requête de la défense était "pleine de citations d'affaires inexistantes", selon un dossier judiciaire.

"La Cour est confrontée à une circonstance sans précédent", a déclaré Castel. Il a fixé une audience au 8 juin lorsque LoDuca et Schwartz seront appelés à s'expliquer. Aucun des deux avocats n'a répondu à la demande de commentaires de CNBC.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd