Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3056

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat admet avoir utilisé l'IA pour la recherche après avoir cité des cas "faux" de ChatGPT
telegraph.co.uk · 2023

Un avocat de New York a été contraint d'admettre qu'il a utilisé [l'outil d'intelligence artificielle ChatGPT](https://www.telegraph.co.uk/business/2023/05/23/chatgpt-sam-altman-ai-regulation-risk -craint/) d'effectuer des recherches juridiques après avoir fait référence à plusieurs affaires judiciaires inventées.

Steven Schwartz, qui travaille pour Levidow, Levidow et Oberman, fait partie d'une équipe représentant le passager de la compagnie aérienne Roberto Mata qui poursuit la société Avianca pour des blessures subies lorsqu'un chariot de service s'est cogné le genou lors d'un vol d'El Salvador à l'aéroport JFK de New York en 2019.

M. Schwartz a utilisé le programme d'IA pour "compléter" ses recherches pour une soumission de 10 pages au tribunal fédéral de Manhattan expliquant pourquoi le cas de son client ne devrait pas être rejeté.

Le mémoire juridique, soumis en mars, citait six affaires antérieures datées de 1999 à 2019 pour étayer son argumentation sur la raison pour laquelle l'affaire devrait être entendue malgré l'expiration du délai de prescription.

Impossible de trouver les cotations

Mais ni les avocats de la compagnie aérienne ni le juge n'ont pu trouver les décisions ou les citations résumées dans le mémoire.

Le juge P Kevin Castel a ordonné aux avocats de M. Mata de fournir des copies des opinions référencées.

Les avocats ont soumis une liste du tribunal et des juges qui les avaient délivrés, mais ceux-ci étaient liés à des affaires différentes.

Pour l'une des affaires, Varghese c. China Southern Airlines, les avocats d'Avianca ont déclaré qu'ils n'avaient "pas été en mesure de localiser cette affaire par légende ou citation, ni aucune affaire ressemblant à celle-ci".

Ordonnant une audience le 8 juin pour discuter d'éventuelles sanctions, le juge Castel a déclaré qu'un greffier avait confirmé que le numéro de dossier sur l'avis était lié à une affaire distincte.

"Décisions judiciaires fictives"

Le juge Castel a déclaré dans une ordonnance qu'il avait été confronté à "une circonstance sans précédent" d'avoir reçu "de fausses décisions judiciaires, avec de fausses citations et de fausses citations internes".

Développé par des scientifiques de la Silicon Valley à OpenAI, ChatGPT est conçu pour imiter la conversation et le langage humains tout en s'appuyant sur une mine de connaissances pour répondre aux questions et résoudre les problèmes.

M. Schwartz a déclaré dans un affidavit déposé jeudi qu'il avait consulté ChatGPT "pour compléter" son propre travail.

Dans les captures d'écran fournies avec la soumission, l'avocat a été vu en train de demander au programme AI si les cas cités étaient "faux".

Il a demandé si l'un des avis référencés était "un cas réel". Le chatbot a répondu en confirmant que c'était le cas et a fourni une citation.

‘Les autres cas sont-ils faux ?’

Dans une autre capture d'écran, il a demandé au programme : "Les autres cas que vous avez fournis sont-ils faux ?"

ChatGPT a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."

M. Schwartz a déclaré qu'il avait utilisé l'outil d'IA pour effectuer ses recherches, qu'il a décrites comme "une source qui s'est révélée peu fiable".

L'avocat a déclaré qu'il n'avait jamais utilisé ChatGPT pour ses recherches auparavant et "donc ignorait la possibilité que son contenu puisse être faux".

Il a dit au juge Castel qu'il "regrette beaucoup" ses actions. M. Schwartz a déclaré qu'il n'avait aucune intention de tromper le tribunal ou la compagnie aérienne et qu'il n'utilisera pas l'outil à l'avenir "sans vérification absolue de son authenticité".

M. Schwartz a été approché samedi pour un commentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd