Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3023

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
L'avocat "ignorait" que ChatGPT pouvait générer de fausses recherches juridiques et fait maintenant face à des sanctions
lawandcrime.com · 2023

Un avocat spécialisé dans les dommages corporels représentant un homme qui poursuit une compagnie aérienne encourt désormais des sanctions pour avoir cité de faux cas générés par ChatGPT dans les documents judiciaires.

Roberto Mata a poursuivi la compagnie aérienne Avianca après avoir été blessé par un chariot de service en métal entrant en collision avec son genou lors d'un vol. Comme c'est la procédure typique dans de nombreux cas de lésions corporelles, Avianca a décidé de rejeter la demande au motif que le délai de prescription applicable avait expiré. Les avocats de Mata se sont opposés à la requête en rejet et, dans les documents judiciaires qui l'accompagnaient, ont cité plusieurs affaires qui étayaient la position juridique de leur client : Varghese c. China Southern Airlines, Shaboon c. Egyptair, Petersen c. Iran Air, Martinez c. Delta Airlines, Succession de Durden contre KLM Royal Dutch Airlines et Miller contre United Airlines.

De manière problématique, cependant, les avocats d'Avianca n'ont trouvé nulle part les cas cités dans la requête, même après des recherches juridiques approfondies. Ils ont soulevé la question dans une lettre au juge de district américain Kevin Castel, nommé par George W. Bush. Dans la lettre, les avocats de la compagnie aérienne ont déclaré: "Le défendeur soutient respectueusement que l'authenticité de bon nombre de ces cas est discutable" et a indiqué que malgré des recherches juridiques standard, aucun signe des cas cités n'a pu être trouvé.

L'origine des mystérieux "cas" s'est révélée lorsque Steven A. Schwartz du cabinet d'avocats new-yorkais Levidow, Levidow & Oberman a soumis un [affidavit](https://www.documentcloud.org/documents/23828916-schwartz-affidavit?responsive =1&title=1) au tribunal expliquant qu'il avait utilisé le programme d'intelligence artificielle ChatGPT pour "compléter la recherche juridique" lors de la rédaction des documents. Schwartz a déclaré au juge que le programme "s'est maintenant révélé peu fiable".

Schwartz, qui est avocat depuis 1991, a déclaré qu'il avait "consulté" le chatbot pour le travail juridique, mais que parce que c'était la première fois qu'il utilisait le programme, il "ignorait la possibilité que son contenu puisse être faux". En effet, ChatGPT a fourni des noms de cas, des légendes, des résumés et des citations dans un format standard.

Schwartz a accepté l'entière responsabilité de l'erreur et a déclaré qu'il n'avait aucune intention de tromper le tribunal. Il a également déclaré qu'il "regrette beaucoup d'utiliser l'intelligence artificielle générative" et a promis qu'il "ne le fera jamais à l'avenir sans une vérification absolue de son authenticité". Schwartz a également déclaré que Peter LoDuca, l'avocat désigné comme avocat au dossier dans l'affaire, n'avait pas participé à la rédaction du document contenant de fausses sources.

LoDuca, Schwartz et le cabinet d'avocats font maintenant face aux conséquences potentielles de l'erreur de Schwartz. Castel leur a ordonné vendredi de comparaître le 8 juin pour faire face à d'éventuelles sanctions en vertu des Règles fédérales de procédure civile pour "la citation de cas inexistants". Une réponse écrite à la possibilité de sanctions est attendue d'ici le 2 juin.

Les représentants de Levidow, Levidow & Oberman n'ont pas immédiatement répondu à une demande de commentaire.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd