Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5480

Incidents associés

Incident 11384 Rapports
South African Legal Team Reportedly Relied on Unverified ChatGPT Case Law in Johannesburg Body Corporate Defamation Matter

Un magistrat réprimande les avocats pour les « fausses affaires » de ChatGPT
timeslive.co.za · 2023

Les avocats d'une femme qui se prétendait diffamée par une personne morale de Parkwood, à Johannesburg, ont été pris de court lorsqu'il a été révélé que celle-ci avait tenté d'utiliser des jugements inexistants générés par ChatGPT pour étayer sa cause.

« Les noms et les citations sont fictifs, les faits sont fictifs et les décisions sont fictives », a déclaré un jugement du tribunal régional de Johannesburg la semaine dernière.

Il a également condamné la femme à des dépens punitifs.

Le magistrat Arvin Chaitram a déclaré que cet incident était un « rappel opportun » que « en matière de recherche juridique, l'efficacité des technologies modernes doit encore être enrichie d'une bonne dose de lecture indépendante à l'ancienne ».

Les jugements fictifs ont entraîné un retard de deux mois, après que Chaitram a reporté l'affaire pour permettre aux avocats de retrouver les jugements. L'affaire a été portée devant le magistrat pour la première fois en mars, lorsque Claire Avidon, avocate des administrateurs de la personne morale, a fait valoir qu'une personne morale ne pouvait être poursuivie en diffamation. Cela aurait mis fin à l'affaire.

Mais Jurie Hayes, avocat de la plaignante, Michelle Parker, a fait valoir que des jugements antérieurs répondaient à cette question. Simplement, au moment de l'audience, son équipe n'avait pas encore pu y accéder.

Chaitram a déclaré dans son jugement qu'il avait alors décidé d'accorder un report à fin mai. « Comme la question semblait inédite et pouvait être déterminante pour l'ensemble de l'action, le tribunal a demandé aux deux parties de déployer des efforts concertés pour trouver les sources suggérées. »

S'en sont suivis deux mois durant lesquels deux groupes d'avocats ont tenté de retrouver des jugements fictifs auxquels les avocats de Parker, grâce à l'intelligence artificielle (IA), avaient déjà trouvé des références, mais qui n'existaient pas réellement.

L'avocate de la plaignante, Chantal Rodrigues, du cabinet Rodrigues Blignaut Attorneys, a déclaré qu'en raison de la complexité et de l'inédit de cette affaire, « trouver une affaire et des précédents non publiés n'est pas une tâche simple et directe ».

« Il a fallu explorer et exploiter toutes les sources d'information et pistes potentielles… par des moyens anciens ou nouveaux. » Son cabinet a exploré « l'un des outils d'IA les plus avancés à ce jour », puis « assurer le suivi des conclusions recueillies ».

Cela a nécessité « des discussions approfondies avec les différentes hautes cours du pays, des échanges avec les greffiers de plusieurs provinces et des échanges avec les bibliothécaires juridiques de la bibliothèque du Legal Practice Council », a-t-elle précisé.

L'avocat de la personne morale, Max Rossle, du cabinet Le Mottée Rossle Attorneys, a déclaré que son équipe avait échangé de nombreux messages avec le cabinet Rodrigues Blignaut Attorneys, qui lui avait transmis une liste de noms d'affaires avec citations, c'est-à-dire les références aux sources de ces affaires.

Mais lorsque son équipe a tenté de retrouver les jugements, elle n'a pas réussi à les trouver. Leur avocate adjointe, Ziphozihle Raqowa, a passé 15 heures sur quatre jours à rechercher les jugements, en vain. Les noms des affaires étaient réels. Les citations étaient réelles. Mais ces citations concernaient des affaires différentes de celles citées. Aucune de ces affaires ni citations ne concernait des poursuites en diffamation entre des personnes morales et des particuliers, a déclaré Rossle.

Lorsque l'équipe a sollicité l'aide de la bibliothèque du barreau de Johannesburg, les bibliothécaires ont déclaré qu'ils ne parvenaient pas non plus à retrouver les jugements et qu'ils soupçonnaient ChatGPT d'avoir généré les affaires.

Finalement, le vendredi précédant leur retour au tribunal, Rossle a contacté les avocats de Parker et leur a demandé s'ils avaient trouvé les véritables jugements. On lui a répondu qu'ils étaient toujours à la recherche.

Lundi, au tribunal, « l'avocat du plaignant a expliqué que son avocat avait trouvé les affaires via ChatGPT », selon le jugement.

Rodrigues a déclaré : « À aucun moment, nous n'avons induit en erreur le tribunal ni notre opposition, et nos conclusions n'ont été communiquées à l'opposition qu'à la demande du magistrat du tribunal régional, dans l'intérêt de la justice. »

Le jugement indique que les avocats de Parker ont accepté les résultats du chatbot IA « sans s'assurer de leur exactitude ».

Mais comme l'équipe juridique n'avait pas soumis les jugements au tribunal, mais uniquement à la partie adverse, le magistrat a déclaré qu'ils n'avaient pas induit le tribunal en erreur, ce qui aurait entraîné de graves conséquences. « Il semble que les avocats aient été à la fois zélés et négligents », a-t-il déclaré.

Ils n'avaient également « aucune intention d'induire qui que ce soit en erreur ». Mais la « conséquence inévitable de cette débâcle » a été que l'équipe du défendeur a été induite en erreur, selon le jugement. Une condamnation aux dépens punitifs était donc raisonnable.

« En effet, le tribunal ne considère même pas cela comme une sanction. C'est simplement approprié. L'embarras lié à cet incident est probablement une punition suffisante pour les avocats du plaignant », a-t-il déclaré.

« Les tribunaux attendent des avocats qu'ils fassent preuve d'indépendance juridique et d'un esprit critique, notamment sur les questions juridiques inédites, et qu'ils ne se contentent pas de répéter, comme des perroquets, les recherches non vérifiées d'un chatbot », a-t-il ajouté.

Rodrigues a déclaré : « Nous ne devrions pas agir comme des luddites, en résistant à l'évolution naturelle de la technologie dans la quête de justice, et il va sans dire que la diligence raisonnable et la rigueur sont toujours de mise lorsqu'on explore ces terrains inconnus. »

L'utilisation de ChatGPT pour la recherche juridique a fait l'objet de reportages médiatiques aux États-Unis le mois dernier après qu'un avocat engagé dans une action en dommages corporels a utilisé ChatGPT pour préparer un dossier, « mais le robot d'intelligence artificielle a fourni de faux dossiers que l'avocat a ensuite présentés au tribunal », a rapporté le site d'information en ligne Forbes.com.

Dans cette affaire, le tribunal envisageait de sanctionner l'avocat car, contrairement à cette affaire, les fausses affaires citées avaient été présentées au tribunal. Mais le procureur américain a déclaré qu'il n'avait pas eu l'intention d'induire le tribunal en erreur, a rapporté Forbes.com, ajoutant que l'avocat avait expliqué dans les documents judiciaires qu'il n'avait jamais utilisé ChatGPT pour des recherches juridiques et qu'il avait « connu cette technologie grâce à ses enfants, étudiants ».

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • a9df9cf