Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Traduit par IA

Incident 1138: Une équipe juridique sud-africaine se serait appuyée sur la jurisprudence non vérifiée de ChatGPT dans une affaire de diffamation contre une personne morale à Johannesburg.

Traduit par IA
Description:
Traduit par IA
Dans une affaire de diffamation devant le tribunal régional de Johannesburg, le cabinet Rodrigues Blignaut, représentant la plaignante Michelle Parker, se serait appuyé sur des jugements prétendument inexistants générés par ChatGPT pour plaider sa cause. Le magistrat Arvin Chaitram aurait conclu que les noms et les citations des affaires étaient fictifs, ce qui a entraîné un retard de deux mois. Le tribunal a prononcé une ordonnance de dépens punitifs et a reproché à l'équipe juridique de la plaignante d'avoir accepté sans réserve des recherches générées par l'IA.
Editor Notes: Timeline note: This incident ID takes 03/01/2023 as its incident date, but it was added to the database on 07/05/2025. The reported timeline is as follows: Reportedly, sometime in March 2023, plaintiff Michelle Parker's legal team argued a defamation claim against the Parkwood body corporate using purportedly non-existent judgments generated by ChatGPT; the magistrate postponed the case to late May to locate the cases; after two months of failed searching, the court found the citations were fictitious and issued a punitive costs order in early July 2023.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: OpenAI developed an AI system deployed by Rodrigues Blignaut Attorneys , Jurie Hayes et Chantal Rodrigues, which harmed Rodrigues Blignaut Attorneys , Jurie Hayes , Chantal Rodrigues , Michelle Parker , Legal integrity , Judicial integrity et Epistemic integrity.
Système d'IA présumé impliqué: ChatGPT

Statistiques d'incidents

ID
1138
Nombre de rapports
4
Date de l'incident
2023-03-01
Editeurs
Daniel Atherton

Rapports d'incidents

Chronologie du rapport

Incident Occurrence+2
Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT
L'IA rêve-t-elle de moutons électriques ? Un magistrat met en garde contre une confiance aveugle dans les contenus générés par l'IA.
Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT

Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT

timeslive.co.za

Des avocats sud-africains utilisent ChatGPT pour plaider leur cause et se font arrêter après avoir inventé de fausses informations.

Des avocats sud-africains utilisent ChatGPT pour plaider leur cause et se font arrêter après avoir inventé de fausses informations.

mybroadband.co.za

Un tribunal sud-africain dénonce les avocats qui utilisent les références ChatGPT

Un tribunal sud-africain dénonce les avocats qui utilisent les références ChatGPT

techpoint.africa

L'IA rêve-t-elle de moutons électriques ? Un magistrat met en garde contre une confiance aveugle dans les contenus générés par l'IA.

L'IA rêve-t-elle de moutons électriques ? Un magistrat met en garde contre une confiance aveugle dans les contenus générés par l'IA.

moonstone.co.za

Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT
timeslive.co.za · 2023
Traduit par IA

Les avocats d'une femme qui se prétendait diffamée par une personne morale de Parkwood, à Johannesburg, ont été pris de court lorsqu'il a été révélé que celle-ci avait tenté d'utiliser des jugements inexistants générés par ChatGPT pour étay…

Des avocats sud-africains utilisent ChatGPT pour plaider leur cause et se font arrêter après avoir inventé de fausses informations.
mybroadband.co.za · 2023
Traduit par IA

Des avocats plaidant devant le tribunal régional de Johannesburg ont été interpellés dans un jugement pour avoir utilisé de fausses références générées par ChatGPT.

« Les noms et les citations sont fictifs, les faits sont fictifs et les déc…

Un tribunal sud-africain dénonce les avocats qui utilisent les références ChatGPT
techpoint.africa · 2023
Traduit par IA

Note de l'éditeur de l'AIID : Veuillez consulter la source originale pour l'article complet. L'extrait ci-dessous correspond à la sous-section correspondante.

Des avocats interpellés pour avoir utilisé ChatGPT

Les avocats d'une femme ont ét…

L'IA rêve-t-elle de moutons électriques ? Un magistrat met en garde contre une confiance aveugle dans les contenus générés par l'IA.
moonstone.co.za · 2023
Traduit par IA

Ne croyez pas tout ce que vous lisez sur Internet.

Les avocats de Michelle Parker, qui affirmait avoir été diffamée par une personne morale de Parkwood, à Johannesburg, ont récemment eu l'embarras de se rappeler cette platitude lorsqu'il a …

Variantes

Une "Variante" est un incident de l'IA similaire à un cas connu—il a les mêmes causes, les mêmes dommages et le même système intelligent. Plutôt que de l'énumérer séparément, nous l'incluons sous le premier incident signalé. Contrairement aux autres incidents, les variantes n'ont pas besoin d'avoir été signalées en dehors de la base de données des incidents. En savoir plus sur le document de recherche.
Vous avez vu quelque chose de similaire ?

Incidents similaires

Selected by our editors

South African Legal Team for Northbound Processing Reportedly Admits Legal Genius AI Produced Purportedly Non-Existent Case Law in Urgent Court Filing

Jun 2025 · 4 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports
Incident précédentProchain incident

Incidents similaires

Selected by our editors

South African Legal Team for Northbound Processing Reportedly Admits Legal Genius AI Produced Purportedly Non-Existent Case Law in Urgent Court Filing

Jun 2025 · 4 rapports
Par similarité textuelle

Did our AI mess up? Flag the unrelated incidents

Defamation via AutoComplete

Defamation via AutoComplete

Apr 2011 · 28 rapports
Australian Automated Debt Assessment System Issued False Notices to Thousands

Australian Automated Debt Assessment System Issued False Notices to Thousands

Jul 2015 · 39 rapports
Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Facial Recognition Trial Performed Poorly at Notting Hill Carnival

Aug 2017 · 4 rapports

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf