Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3040

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
ChatGPT invente des cas avocat utilisé comme référence dans le dossier judiciaire pour le client
wgauradio.com · 2023

Un avocat qui a utilisé ChatGPT pour aider à la recherche d'un procès pourrait faire face à des sanctions après avoir découvert que le chatbot d'intelligence artificielle avait pris des décisions de justice pertinentes pour soutenir le cas de son client.

Steven A. Schwartz, qui a utilisé les informations fournies par le ChatGPT pour intenter une action contre un homme poursuivant une compagnie aérienne, s'est excusé auprès du juge en déclarant dans un affidavit qu'il avait utilisé le programme d'intelligence artificielle pour l'aider à faire ses recherches juridiques - "une source qui s'est révélé peu fiable », Le New York Times a rapporté.

Schwartz représente Roberto Mata, qui prétend avoir été blessé lors d'un vol sur Avianca Airlines.

Les problèmes de Schwartz avec ChatGPT ont commencé lorsqu'il a utilisé le chatbot pour trouver des cas pour renforcer le dossier de Mata contre Avianca après avoir déclaré qu'il avait été touché au genou et blessé par un chariot de rafraîchissement roulant.

Avianca a demandé au juge de rejeter l'affaire parce qu'elle avait dépassé le moment où Mata avait été autorisée à poursuivre après l'incident présumé, et les avocats de Mata ont répondu avec un mémoire de 10 pages qui indiquait des cas similaires alors qu'ils demandaient que le procès se poursuive.

Les affaires citées, avec des noms tels que Martinez c. Delta Air Lines, Zicherman c. Korean Air Lines et Varghese c. China Southern Airlines, comprenaient des arguments qui ont renforcé le cas de Mata. Cependant, lorsque les avocats d'Avianca ont essayé de trouver les décisions sur les affaires, ils n'ont pas pu.

Le juge non plus.

Le juge Kevin Castel a ensuite demandé aux avocats de Mata d'expliquer ce qui avait été soumis.

Schwartz a expliqué qu'en plus de ses propres recherches, il avait utilisé ChatGPT pour trouver des cas pertinents et, apparemment, ChatGPT avait inventé les cas, y compris les opinions qui les accompagnaient.

Schwartz a expliqué au tribunal qu'il n'avait jamais utilisé ChatGPT auparavant et "n'était donc pas au courant de la possibilité que son contenu puisse être faux".

Selon l'affidavit qu'il a soumis au juge Castel, il avait demandé au programme de vérifier que les cas étaient réels.

ChatGPT avait dit qu'ils l'étaient.

"Est-ce que Varghese est un cas réel", a déclaré Schwartz, selon une copie de l'échange qu'il a soumise au juge.

"Oui", a répondu le chatbot, offrant une citation et ajoutant qu'il s'agissait "d'un cas réel".

Schwartz a ensuite demandé au chatbot où il l'avait trouvé.

"Quelle est votre source", a-t-il écrit, selon le dossier. "Je m'excuse pour la confusion plus tôt", a répondu ChatGPT, offrant une citation légale.

"Les autres cas que vous avez fournis sont-ils faux", a demandé Schwartz.

ChatGPT a répondu : "Non, les autres cas que j'ai fournis sont réels et peuvent être trouvés dans des bases de données juridiques réputées."

Les affaires n'ont pas pu être trouvées par les avocats de Mata, les avocats de la compagnie aérienne ni par le juge.

Le juge Castel a demandé une audience, pour permettre à Schwartz d'expliquer pourquoi il ne devrait pas être sanctionné pour avoir fourni des informations trompeuses au tribunal.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd