Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3030

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat fait face à des sanctions pour avoir utilisé de fausses citations ChatGPT
pcmag.com · 2023

Un avocat de New York est dans l'eau chaude pour avoir soumis un dossier juridique avec des références à des cas qui ont été constitués par [ChatGPT](https://www.pcmag.com/how-to/what-is-chatgpt-ai-phenomenon- qui-semble-presque-humain).

Comme The New York Times [reports(Opens in a new window)](https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp= cur), Steven Schwartz, de Levidow, Levidow et Oberman, a soumis six fausses décisions judiciaires dans un mémoire de 10 pages alors qu'il représentait un plaignant qui poursuivait la compagnie aérienne colombienne Avianca en raison d'une blessure subie lors d'un vol.

Le mémoire, qui expliquait pourquoi la poursuite devait aller de l'avant, citait de faux cas qui avaient été entièrement inventés par ChatGPT et que Schwartz n'avait pas vérifié.

Dans un affidavit(ouvre dans une nouvelle fenêtre), Schwartz a admis avoir utilisé ChatGPT lors de ses recherches pour le brief, et accepté la responsabilité de ne pas vérifier les sources du chatbot AI.

Schwartz a déclaré qu'il "ignorait la possibilité que son contenu puisse être faux" et a affirmé qu'il "regrette profondément d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité. ”

Cela est venu après que le juge de district américain Kevin Castel a écrit dans une [ordonnance du 4 mai(ouvre dans une nouvelle fenêtre)](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd. 575368.31.0.pdf) : "Le tribunal est confronté à une circonstance sans précédent... Six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."

L'affidavit contenait des captures d'écran de l'avocat informé par ChatGPT que les cas qu'il fournissait étaient réels et pouvaient être trouvés sur n'importe quelle "base de données juridique réputée". Les captures d'écran montrent également Schwartz demandant au chatbot AI la source d'un faux cas : Varghese contre China Southern Airlines.

ChatGPT a répondu : « Je m'excuse pour la confusion de tout à l'heure. Après vérification, j'ai découvert que l'affaire Varghese c. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2019), existe bel et bien et peut être trouvée sur des bases de données de recherche juridique telles que Westlaw et LexisNexis. Je m'excuse pour tout inconvénient ou confusion que mes réponses précédentes ont pu causer.

Comme le note le Times, Schwartz doit maintenant faire face à une audience sur les sanctions le 8 juin.

La saga est la dernière d'une série d'incidents de chatbots d'IA diffusant des informations erronées. De longues conversations avec Bing de Microsoft ont permis au chatbot de présenter certaines tactiques de manipulation telles que l'éclairage au gaz, tandis que Bard, le chatbot IA de Google, racontait des mensonges à propos du télescope spatial James Webb lors de ses débuts.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd