Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3015

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat a utilisé ChatGPT et doit maintenant répondre de ses « fausses » citations
theverge.com · 2023

Les avocats poursuivant la compagnie aérienne colombienne Avianca ont soumis un mémoire rempli d'affaires antérieures qui ont été juste inventées par ChatGPT, [The New York Times rapporté aujourd'hui](https://www.nytimes.com/2023/05/27/nyregion/avianca- compagnie aérienne-lawsuit-chatgpt.html?smid=tw-nytimes&smtyp=cur). Après que l'avocat adverse a souligné les cas inexistants, le juge de district américain Kevin Castel a confirmé : "Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", et a organisé une audience alors qu'il envisageait des sanctions pour les avocats du plaignant. .

Avocat Steven A. Schwartz admis dans un affidavit qu'il avait utilisé le chatbot d'OpenAI pour ses recherches. Pour vérifier les cas, il a fait la seule chose raisonnable : il a demandé au chatbot s'il mentait.

Lorsqu'il a demandé une source, ChatGPT s'est excusé pour la confusion antérieure et a insisté sur le fait que l'affaire était réelle, affirmant qu'elle pouvait être trouvée sur Westlaw et LexisNexis. Satisfait, il a demandé si les autres cas étaient faux, et ChatGPT a soutenu qu'ils étaient tous réels.

L'avocat de la partie adverse a informé le tribunal de la question avec des détails douloureux en racontant à quel point la soumission des avocats de Levidow, Levidow & Oberman était un mémoire rempli de mensonges. Dans un exemple, une affaire inexistante appelée Varghese c. China Southern Airlines Co., Ltd., le chatbot semblait faire référence à une autre affaire réelle, [Zicherman c. Korean Air Lines Co., Ltd.](https://supreme.justia .com/cases/federal/us/516/217/), mais s'est trompé de date (et d'autres détails), affirmant qu'il avait été décidé 12 ans après sa décision initiale de 1996.

Schwartz dit qu'il "ignorait la possibilité que son contenu puisse être faux". Il "regrette profondément d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".

Schwartz n'est pas autorisé à pratiquer dans le district sud de New York, mais a initialement déposé le procès avant qu'il ne soit transféré à ce tribunal et dit qu'il a continué à y travailler. Un autre avocat du même cabinet, Peter LoDuca, est devenu l'avocat du dossier sur l'affaire, et il devra comparaître devant le juge pour expliquer ce qui s'est passé.

Cela souligne une fois de plus l'absurdité d'utiliser des chatbots pour la recherche sans double (ou triple) vérification de leurs sources ailleurs. Les débuts de Microsoft sur Bing sont désormais tristement associés à [mensonges éhontés, éclairage au gaz et manipulation émotionnelle] (https://www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy -employés-webcams). Bard, le chatbot IA de Google, a inventé un fait sur le télescope spatial James Webb [dans sa première démo](https://www.theverge.com/2023/2/8/23590864/google-ai-chatbot-bard-mistake -error-exoplanet-demo). Bing a même menti à propos de la fermeture de Bard dans un exemple hilarant et méchant de mars dernier .

Être doué pour imiter les schémas de la langue écrite pour maintenir un air de confiance inébranlable ne vaut pas grand-chose si vous ne pouvez même pas [comprendre combien de fois la lettre "e" apparaît dans le ketchup](https://www. theverge.com/2023/5/16/23725747/bard-chatbot-google-ni-artificiel-ni-intelligent).

Quoi qu'il en soit, voici le juge soulignant toutes les façons dont le dossier de l'avocat était un festival de mensonge absolu :

Document PDF

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd