Un jeune avocat sud-africain qui s'est appuyé sur un outil d'intelligence artificielle pour rédiger ses conclusions a été renvoyé devant le Conseil de la pratique juridique pour enquête après avoir inclus de la jurisprudence fictive dans ses plaidoiries écrites. Cette affaire, portant sur une licence contestée liée à la vente de Rappa Resources à Northbound Processing, est devenue l'un des épisodes juridiques les plus marquants du pays en matière d'utilisation abusive de l'IA générative.
Northbound Processing avait saisi le tribunal en urgence, demandant à l'autorité sud-africaine de régulation des diamants et des métaux précieux de lui délivrer une licence de raffinage, arguant que sans elle, elle risquait de lourdes pertes commerciales. Si le tribunal a finalement statué en faveur de Northbound, le juge par intérim DJ Smit a renvoyé l'affaire devant les autorités judiciaires après avoir découvert de multiples citations de jurisprudence inexistantes dans les conclusions présentées par l'équipe juridique de Northbound.
« À mon avis, il importe peu que ces affaires n'aient pas été présentées oralement, mais qu'elles aient été consignées dans des plaidoiries écrites », a écrit Smit dans sa décision. « Les plaidoiries écrites constituent un mémoire aussi important que les plaidoiries orales et, pour des raisons purement pratiques, les juges s'y fient souvent davantage. »
Un avocat junior admet avoir utilisé un outil d'IA
Interrogé, l'avocat junior a admis avoir utilisé Legal Genius, un outil d'IA présenté comme étant adapté à la jurisprudence sud-africaine, et a expliqué que les erreurs résultaient de contraintes de temps et de l'indisponibilité du collègue initialement rédacteur du document. Il a présenté ses excuses sans réserve et a assumé l'entière responsabilité, tout en insistant sur le fait qu'il n'y avait aucune intention d'induire le tribunal en erreur. L'avocat principal de Northbound, Arnold Subel, a également présenté ses excuses, affirmant n'avoir procédé qu'à une simple vérification du document et estimant que les propositions étaient banales.
Mises en garde plus larges concernant l'IA dans la pratique juridique
Refilwe Motsoeneng, avocate au sein du cabinet d'avocats spécialisé en droit numérique et technologique Michalsons Giles Inc, a souligné que cette affaire illustre les risques juridiques et éthiques liés à la non-vérification des contenus générés par l'IA devant les tribunaux.
« Cette affaire renforce l'obligation éthique de vérifier indépendamment toutes les sources juridiques avant de les citer. Même des "hallucinations" involontaires d'IA peuvent nuire à la réputation et donner lieu à des plaintes pour faute professionnelle », a-t-elle déclaré.
« Elles ne peuvent remplacer une recherche juridique appropriée ni un contrôle professionnel. Les tribunaux exigent des normes élevées, en particulier dans les demandes urgentes où ils s'appuient sur des observations écrites », a-t-elle ajouté.
Une tendance croissante au sein des tribunaux sud-africains
Il s'agit du troisième cas connu en Afrique du Sud où de grands modèles linguistiques ont introduit de fausses citations juridiques dans des documents judiciaires :
-
En 2023, des représentants légaux d'un régime de titres sectionnels ont cité une autorité fictive de ChatGPT et ont reçu une ordonnance de dépens punitifs.
-
En 2025, la juge Elsje-Marie Bezuidenhout, dans une affaire distincte, a jugé légitimes seulement deux des neuf citations formulées dans le cadre d'un appel interjeté par le maire d'Umvoti, Godfrey Mavundla. Elle a qualifié l'incident d'« irresponsable et de tout à fait non professionnel » et l'a renvoyé au Conseil de la pratique juridique.
La juge Smit a fait écho à cette décision, se référant à l'article 16(1) du Code de déontologie judiciaire, qui oblige les juges à signaler toute « faute professionnelle grave ou incompétence grave » aux autorités compétentes.
Clarification du principe juridique à l'honneur
Au-delà de la controverse sur l'IA, le jugement de la Cour a également confirmé un point réglementaire essentiel : une fois qu'une licence est délivrée et communiquée par un organisme de réglementation, elle ne peut être refusée unilatéralement sans suivre les procédures légales appropriées.
« Sauf contestation formelle devant un tribunal et annulation, une décision reste valable et doit être appliquée. Ceci est important pour toute entreprise dont l'activité dépend de licences ou d'autorisations gouvernementales », a déclaré Motsoeneng.
Cette affaire devrait servir de précédent pour les professionnels du droit qui expérimentent l'IA générative dans le cadre de litiges, renforçant la nécessité d'une vérification rigoureuse des sources et de limites professionnelles claires dans la pratique juridique numérique.