Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5484

Incidents associés

Incident 11384 Rapports
South African Legal Team Reportedly Relied on Unverified ChatGPT Case Law in Johannesburg Body Corporate Defamation Matter

Des avocats sud-africains utilisent ChatGPT pour plaider leur cause et se font arrêter après avoir inventé de fausses informations.
mybroadband.co.za · 2023

Des avocats plaidant devant le tribunal régional de Johannesburg ont été interpellés dans un jugement pour avoir utilisé de fausses références générées par ChatGPT.

« Les noms et les citations sont fictifs, les faits sont fictifs et les décisions sont fictives », indique le jugement.

Selon le Sunday Times, le jugement a également condamné le client des avocats à une condamnation aux dépens punitive.

« En matière de recherche juridique, l'efficacité des technologies modernes doit encore être renforcée par une bonne dose de lecture indépendante », a déclaré le magistrat Arvin Chaitram à propos de la situation.

L'affaire en question concernait une femme qui poursuivait sa personne morale pour diffamation.

L'avocat des administrateurs de la personne morale a fait valoir qu'une personne morale ne pouvait être poursuivie en diffamation. L'avocate du plaignant, Michelle Parker, a déclaré que des jugements antérieurs répondaient à cette question, mais qu'elle n'avait simplement pas eu le temps d'y accéder.

Le magistrat Chaitram a reporté l'affaire à fin mai afin de donner aux deux parties le temps de trouver les informations nécessaires à la preuve de leurs accusations.

Au cours des deux mois qui ont suivi, les différents avocats impliqués dans l'affaire ont tenté de retrouver les informations auxquelles ils avaient fait référence.

Ils ont finalement constaté que, bien que ChatGPT ait fait référence à des cas réels et fourni des citations authentiques, ces citations concernaient des cas différents de ceux cités.

De plus, ces affaires et citations n'étaient absolument pas appropriées aux procès en diffamation entre personnes morales et particuliers.

Il a ensuite été admis que les jugements avaient été obtenus « par l'intermédiaire de ChatGPT ».

Chaitram a jugé que les avocats n'avaient pas eu l'intention d'induire le tribunal en erreur ; ils avaient « à la fois fait preuve d'un excès de zèle et d'une négligence ».

Cela signifie qu'aucune autre mesure n'a été prise à leur encontre, au-delà de l'ordonnance de dépens punitifs.

« L'embarras lié à cet incident constitue probablement une sanction suffisante pour les avocats du plaignant », a déclaré Chaitram.

Les cas inventés de toutes pièces par ChatGPT

L'Afrique du Sud n'est pas le premier pays où des avocats ont cru sans réserve à ChatGPT et l'ont utilisé pour compléter leur travail.

Aux États-Unis, les avocats à l'origine d'un mémoire judiciaire plein de fausses citations de cas provenant de ChatGPT ont été condamnés à une amende de 5 000 $ (93 045 R) le mois dernier.

Le juge de district américain P. Kevin Castel a estimé que les avocats Steven Schwartz et Peter LoDuca et leur cabinet avaient « abandonné leurs responsabilités en soumettant des avis judiciaires inexistants contenant de fausses citations créées par l'outil d'intelligence artificielle ChatGPT, puis en continuant à les soutenir après que des ordonnances judiciaires eurent remis en question leur existence ».

M. Schwartz et M. LoDuca avaient déposé le mémoire au nom de Roberto Mata, un client qui prétendait avoir été blessé lors d'un vol entre le Salvador et New York en 2019. La plainte de M. Mata a également été rejetée, car déposée trop tard.

Castell a également ordonné aux avocats d'envoyer une transcription de l'audience et son avis à chacun des juges faussement identifiés comme auteurs par ChatGPT.

« Le tribunal n'exigera pas d'excuses de la part des défendeurs, car des excuses forcées ne constituent pas des excuses sincères », a ajouté M. Castel.

« La décision de présenter des excuses appartient aux défendeurs. »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf