Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3018

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat en grande difficulté après avoir utilisé ChatGPT au tribunal et que cela a complètement foiré
futurism.com · 2023

La [propension à inventer] de ChatGPT (https://arstechnica.com/information-technology/2023/04/why-ai-chatbots-are-the-ultimate-bs-machines-and-how-people-hope-to -fix-them/) frappe à nouveau - et cette fois, un avocat est en grande difficulté.

Comme décrit dans un affidavit de début mai, un avocat représentant un homme poursuivant un compagnie aérienne pour une blessure présumée a admis avoir utilisé le chatbot AI pour faire des recherches sur le cas de son client. C'est pourquoi, dans son mémoire juridique, il a cité un tas d'affaires judiciaires - toutes avec des noms à consonance officielle comme "Martinez contre Delta Air Lines" et "Varghese contre China Southern Airlines" - qui ne se sont jamais réellement produites, et donc n'existe pas.

L'avocat, Steven Schwartz du cabinet d'avocats Levidow, Levidow & Oberman de Manhattan, a déclaré au tribunal que c'était la première fois en plus de trois décennies de carrière qu'il utilisait ChatGPT, donc [selon le New York Times](https: //www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html), "n'était pas au courant de la possibilité que son contenu puisse être faux."

Schwartz a même dit au juge, P. Kevin Castel, qu'il avait demandé à ChatGPT de vérifier ses sources. Le chatbot lui a apparemment dit que les cas étaient réels, rapporte le NYT.

Oui c'est vrai. Un avocat expérimenté a utilisé ChatGPT au tribunal - et est maintenant en grande difficulté après avoir fabriqué des pans entiers de précédents juridiques.

Faux

Schwartz a déclaré au tribunal qu'il "regrette beaucoup" d'avoir utilisé ChatGPT pour faire ses recherches sur l'affaire "et qu'il ne le fera jamais à l'avenir sans une vérification absolue de son authenticité".

Le juge Castel, cependant, ne semble pas influencé et, dans son ordonnance du 4 mai, il décrit sans ambages la gravité de la situation.

"La Cour est confrontée à une circonstance sans précédent", lit-on dans l'ordonnance du juge pour une future audience. "Une soumission déposée par l'avocat du demandeur en opposition à une requête en rejet est remplie de citations de cas inexistants... six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes."

Le mois prochain, Castel tiendra une audience pour discuter de la sanction ou non de Schwartz. Mais en attendant, cette affaire bizarre devrait, espérons-le, servir de récit édifiant aux avocats - et à tous les autres - qui cherchent à expérimenter ChatGPT dans un cadre professionnel.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd