Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1138: Les avocats de Rodrigues Blignaut se seraient appuyés sur la jurisprudence non vérifiée de ChatGPT dans une affaire de diffamation contre une personne morale à Johannesburg.

Traduit par IA
Description:
Traduit par IA
Dans une affaire de diffamation devant le tribunal régional de Johannesburg, le cabinet Rodrigues Blignaut, représentant la plaignante Michelle Parker, se serait appuyé sur des jugements prétendument inexistants générés par ChatGPT pour plaider sa cause. Le magistrat Arvin Chaitram aurait conclu que les noms et les citations des affaires étaient fictifs, ce qui a entraîné un retard de deux mois. Le tribunal a prononcé une ordonnance de dépens punitifs et a reproché à l'équipe juridique de la plaignante d'avoir accepté sans réserve des recherches générées par l'IA.
Editor Notes: Timeline note: This incident ID takes 03/01/2023 as its incident date, but it was added to the database on 07/05/2025. The reported timeline is as follows: Reportedly, sometime in March 2023, plaintiff Michelle Parker's legal team argued a defamation claim against the Parkwood body corporate using purportedly non-existent judgments generated by ChatGPT; the magistrate postponed the case to late May to locate the cases; after two months of failed searching, the court found the citations were fictitious and issued a punitive costs order in early July 2023.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OpenAI developed an AI system deployed by Rodrigues Blignaut Attorneys , Jurie Hayes et Chantal Rodrigues, which harmed Rodrigues Blignaut Attorneys , Jurie Hayes , Chantal Rodrigues , Michelle Parker , Legal integrity , Judicial integrity et Epistemic integrity.
Système d'IA présumé impliqué: ChatGPT

Statistiques d'incidents

ID
1138
Nombre de rapports
1
Date de l'incident
2023-03-01
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceUn magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT
Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT

Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT

timeslive.co.za

Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT
timeslive.co.za · 2023
Traduit par IA

Les avocats d'une femme qui se prétendait diffamée par une personne morale de Parkwood, à Johannesburg, ont été pris de court lorsqu'il a été révélé que celle-ci avait tenté d'utiliser des jugements inexistants générés par ChatGPT pour étay…

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Selected by our editors

South African Legal Team for Northbound Processing Reportedly Admits Legal Genius AI Produced Purportedly Non-Existent Case Law in Urgent Court Filing

Jun 2025 · 1 rapport
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors

South African Legal Team for Northbound Processing Reportedly Admits Legal Genius AI Produced Purportedly Non-Existent Case Law in Urgent Court Filing

Jun 2025 · 1 rapport
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • 818b77a