Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3044

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat a utilisé ChatGPT pour rédiger un dossier juridique complètement "faux"
interestingengineering.com · 2023

Des [préoccupations] éthiques (https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research "https://interestingengineering.com/culture/chatgpt-may-expand-discourse-research") ont été soulevées par les établissements d'enseignement qui craignent que les étudiants utilisent des chatbots alimentés par l'intelligence artificielle (IA) comme ChatGPT pour rédiger leurs documents de recherche ou leurs essais, affectant ainsi l'intégrité académique de la tâche.

Mais même s'ils utilisaient le chatbot pour des travaux liés à la recherche, on pourrait supposer qu'ils vérifieraient la véracité des résultats produits par le chatbot. Mais ce n'était même pas le cas avec un avocat diplômé du barreau, M. Steven A. Schwartz.

Dans une tournure des événements embarrassante, un avocat basé à New York s'est retrouvé dans l'eau chaude avec un tribunal fédéral de Manhattan après avoir utilisé ChatGPT pour effectuer des recherches juridiques sur une affaire, [rapporté](https://www.nytimes.com/ 2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html "signalé") The New York Times.

Tout se serait bien passé pour M. Schwartz si les citations et les décisions judiciaires mentionnées dans le briefing n'avaient pas été le fruit de l'imagination de ChatGPT.

Le procès avait été intenté par un cabinet d'avocats basé à New York, Levidow, Levidow & Oberman, au nom de leur client Roberto Mata qui voulait poursuivre la compagnie aérienne Avianca après avoir allégué avoir été blessé par un chariot de service lors d'un vol.

Après qu'Avianca ait déposé la requête pour rejeter l'affaire, M. Schwartz, qui exerce la profession d'avocat depuis 30 ans, a soumis un mémoire de 10 pages avec des citations d'affaires similaires dans le passé. Mais ni les avocats représentant Avianca ni le juge lui-même n'ont pu trouver les cas cités dans le journal.

"La Cour est confrontée à une circonstance sans précédent", a écrit le juge de district américain Kevin Castel dans un [avis de justification](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd .575368.31.0.pdf). "Une soumission déposée par l'avocat du demandeur en opposition à une requête en rejet regorge de citations de cas inexistants."

Parmi les citations soumises, "six des affaires soumises semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", indique en outre l'avis daté du 4 mai 2023.

Il y a un nom pour les "fausses" informations fournies par ChatGPT

Les développeurs l'appellent "hallucination". C'est alors que des outils d'IA génératifs comme ChatGPT génèrent de fausses réponses aux invites. Ces réponses ne sont pas réelles et ne correspondent pas aux données sur lesquelles il a été formé. Un outil d'IA "hallucinant" pourrait, par exemple, créer de faux reportages ou donner une liste de poursuites qui n'existent pas.

M. Schwartz a répondu à l'avis du tribunal le 25 mai, acceptant et s'excusant d'avoir utilisé le chatbot d'OpenAI pour ses recherches. Il a déclaré dans sa réponse : "Que votre déposant (Schwartz) regrette grandement d'avoir utilisé l'intelligence artificielle générative pour compléter les recherches juridiques effectuées ici et ne le fera jamais à l'avenir sans une vérification absolue de son authenticité."

Fait intéressant, Schwartz ne représentait pas directement le client. C'était, en fait, un autre avocat de Levidow, Levidow & Oberman, Peter LoDuca, qui avait demandé à Schwartz de l'aider avec le dossier de citation. Schwartz a ajouté dans sa réponse: "Que Peter LoDuca, Esq. n'a joué aucun rôle dans la réalisation de la recherche en question, et qu'il n'avait aucune connaissance de la manière dont ladite recherche a été menée.

Il a également joint des captures d'écran de ses questions et réponses fournies par ChatGPT comme preuve qu'il "n'avait aucune intention de tromper cette Cour ni le défendeur".

Le tribunal a convoqué une audience le 8 juin pour discuter des sanctions contre M. LoDuca.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd