Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 3033

Incidents associés

Incident 54158 Rapports
ChatGPT Reportedly Produced False Court Case Law Presented by Legal Counsel in Court

Loading...
Un avocat s'est excusé après que ChatGPT ait constitué la jurisprudence dans un affidavit qu'il a soumis
businessinsider.com · 2023

ChatGPT a vu sa popularité augmenter ces derniers mois alors que l'optimisme et le scepticisme à l'égard du nouveau programme d'IA générative montent en flèche.

Pourtant, l'outil est au cœur d'une affaire visant à sanctionner un avocat new-yorkais. Steven Schwartz, un avocat spécialisé en dommages corporels chez Levidow, Levidow & Oberman, fait face à [une audience sur les sanctions](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd.575368.33.0 .pdf) le 8 juin, après qu'il a été révélé qu'il utilisait [ChatGPT](https://www.businessinsider.com/chatgpt-jobs-at-risk-replacement-artificial-intelligence-ai-labor-trends-2023- 02) pour rédiger un affidavit.

Un autre avocat du même cabinet d'avocats, Peter LoDuca, fait également face à des sanctions, mais dans un [dépôt judiciaire](https://storage.courtlistener.com/recap/gov.uscourts.nysd.575368/gov.uscourts.nysd .575368.32.0.pdf) il a dit n'avoir fait aucune des recherches dans l'affidavit.

L'affidavit qui a utilisé ChatGPT concernait un procès impliquant un homme qui alléguait avoir été blessé par un chariot de service à bord d'un vol Avianca, et comportait plusieurs décisions de justice inventées.

Dans une ordonnance, le juge Kevin Castel a déclaré que l'incident présentait au tribunal " une circonstance sans précédent."

"Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes", a écrit Castel.

Ni les avocats de la compagnie aérienne ni Castel lui-même n'ont pu trouver les cas mentionnés dans l'affidavit.

Bart Banino, avocat chez Condon & Forsyth, qui représente Avianca, a déclaré The New York Times que son entreprise pouvait dire que les cas étaient faux et était initialement sceptique quant à l'utilisation d'un chatbot.

Jeudi, Schwartz a présenté ses excuses à Castel, ajoutant qu'il n'avait jamais utilisé l'outil d'IA auparavant et qu'il n'était pas au courant de la possibilité que son contenu puisse être faux", a rapporté le Times.

Shwartz a également ajouté que ChatGPT était "une source qui s'est révélée peu fiable".

Avianca, LoDuca et Shwartz n'ont pas répondu aux demandes de commentaires d'Insider au moment de la publication.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd