Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3036

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat utilise de faux cas ChatGPT lors de l'audience, se fait gifler par le juge
winbuzzer.com · 2023

ChatGPT est un modèle de langage puissant qui peut générer des textes réalistes sur divers sujets. Il peut également inventer des textes fictifs, tels que des histoires, des poèmes et même des cas juridiques. C'est ce qu'a fait un avocat du nom de Steven Schwartz lorsqu'il représentait un client qui avait intenté une poursuite contre une compagnie aérienne.

Simon Willison rapporte que Schwartz a utilisé ChatGPT pour générer des exemples de cas qui étayaient son argument selon lequel la faillite de la compagnie aérienne société n'affecte pas le délai de prescription de deux ans pour intenter une action en justice. Il a cité ces cas dans ses documents juridiques, sans vérifier leur authenticité ou leur existence. Il a même inclus des captures d'écran des réponses de ChatGPT comme preuve.

Cependant, sa tromperie a été rapidement révélée lorsque le juge lui a demandé de fournir des copies des opinions des cas qu'il avait cités. Schwartz s'est à nouveau tourné vers ChatGPT et lui a demandé de générer tous les détails de ces cas. Il les a ensuite déposés en pièces jointes à ses documents. Il a également demandé à ChatGPT de confirmer que les cas étaient réels, et ChatGPT a répondu qu'ils l'étaient. Il a également inclus des captures d'écran de cette conversation.

Le juge n'a pas été amusé par cette fabrication et cette manipulation flagrantes de ChatGPT. Il a ordonné à Schwartz de montrer pourquoi il ne devrait pas être sanctionné pour son inconduite. Il a également renvoyé l'affaire au comité de discipline de l'association du barreau et au bureau du procureur américain pour d'éventuelles poursuites pénales.

L'affaire est Mata c. Avianca, Inc. (1:22-cv-01461), et elle est toujours en instance devant le tribunal de district américain du district sud de New York.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd