Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3150

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat qui a cité des affaires concoctées par AI demande au juge d'épargner les sanctions
reuters.com · 2023

Un avocat de New York a demandé jeudi à un juge fédéral de Manhattan de ne pas le sanctionner après avoir inclus [des citations de cas inventées] (https://www.Reuters.com/legal/transactional/lawyer-used-chatgpt-cite-bogus- cases-what-are-ethics-2023-05-30/) générées par un chatbot d'intelligence artificielle dans une brève juridique.

L'avocat, Steven Schwartz, a admis en mai qu'il avait utilisé le programme ChatGPT d'OpenAI pour aider à rechercher le dossier, qui citait six décisions de justice inexistantes, dans l'affaire de préjudice corporel d'un client contre Avianca Airlines.

Schwartz a déclaré lors de l'audience de jeudi qu'il n'aurait "jamais" pu imaginer que ChatGPT pourrait inventer de faux cas et n'avait pas l'intention d'induire le tribunal en erreur.

Le juge de district américain P. Kevin Castel, qui avait demandé à Schwartz et à son cabinet d'avocats Levidow, Levidow & Oberman d'expliquer pourquoi ils ne devraient pas être sanctionnés, a déclaré qu'il rendrait une décision plus tard.

Les avocats d'Avianca ont d'abord alerté le tribunal qu'ils ne pouvaient pas localiser les affaires citées dans le mémoire.

Un nombre croissant d'avocats et de cabinets d'avocats ont [exploré](https://www.Reuters.com/legal/legal-ai-race-draws-more-investors-law-firms-line-up-2023-04- 26/) l'utilisation de l'IA générative. La collision désordonnée de Schwartz avec la technologie a fait la une des journaux comme une première illustration de ses pièges potentiels.

Incité en partie par l'affaire de New York, un juge fédéral du Texas a émis la semaine dernière une [exigence](https://www.Reuters.com/legal/transactional/us-judge-orders-lawyers-sign-ai-pledge- warning-they-make-stuff-up-2023-05-31/) pour les avocats dans les affaires devant lui pour certifier qu'ils n'ont pas utilisé l'IA pour rédiger leurs documents sans qu'un humain vérifie leur exactitude.

Schwartz a déclaré jeudi qu'il aurait dû faire plus pour confirmer et vérifier les cas.

Schwartz s'est excusé auprès du tribunal, d'Avianca et d'autres lors de l'audience. Il dit qu'il a "souffri professionnellement et personnellement" et qu'il est gêné et humilié.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd