Incidents associés
Dans l'affaire Mavundla c. MEC : Département du gouvernement coopératif et des affaires traditionnelles du KwaZulu-Natal, la Haute Cour de Pietermaritzburg a examiné les conséquences de la soumission par des juristes de fausses citations de décisions, probablement générées par l'intelligence artificielle (IA), dans leurs documents judiciaires.
Qui devrait se soucier de ce jugement et pourquoi ?
- Les juristes utilisant l'IA pour leurs recherches juridiques devraient en prendre note, car cette affaire met en évidence les dangers de se fier à des contenus générés par l'IA sans vérifications appropriées.
- Les juges, magistrats et auxiliaires de justice doivent être conscients que les documents générés par l'IA peuvent introduire des erreurs dans les plaidoiries, les jugements ou les arguments.
- Les personnes dont les droits peuvent être affectés par des décisions fondées sur l'IA doivent être vigilantes, en particulier lorsque des outils d'IA sont utilisés dans le cadre de décisions juridiques ou administratives.
Que pouvez-vous faire à ce sujet ?
- Vérifiez toujours les recherches juridiques générées par l'IA avant de les utiliser dans le cadre de procédures judiciaires ou administratives. - Mettre en place des mesures pour identifier les hallucinations de l'IA dans les arguments juridiques, les plaidoiries ou les documents officiels.
- Former les professionnels du droit et du gouvernement aux risques, aux limites et aux enjeux éthiques liés à l'utilisation de l'IA dans leur travail.
Notre analyse de l'arrêt
Cet arrêt met en garde les professionnels du droit contre l'utilisation abusive des outils d'IA dans la recherche et la rédaction juridiques. Il démontre pourquoi une vérification approfondie des faits demeure essentielle, quelle que soit la source de l'information, pour maintenir les normes professionnelles et faire respecter la justice.
Cette affaire démontre que les outils d'IA peuvent « halluciner » – en produisant de la jurisprudence, des lois ou des arguments entièrement fictifs. Alors que les secteurs juridique et administratif adoptent de plus en plus l'IA, cette décision illustre l'importance d'examiner attentivement le contenu généré par l'IA avant de l'autoriser à influencer les décisions officielles.
Elle rappelle également aux praticiens du droit leurs obligations déontologiques envers le tribunal et leurs clients, ainsi que la nécessité de faire preuve d'un jugement professionnel éclairé dans l'exercice de leurs fonctions.
Résumé
Faits et contexte
Mavundla a contesté une décision du Département du Gouvernement coopératif et des Affaires traditionnelles (COGTA) du KwaZulu-Natal concernant un conflit de leadership traditionnel.
Ses représentants légaux ont déposé un acte d'appel supplémentaire, citant plusieurs autorités. Après examen, le tribunal a constaté que bon nombre des affaires citées n'existaient dans aucune base de données juridique reconnue.
Le juge a effectué une recherche indépendante à l'aide de ChatGPT, un chatbot basé sur l'IA, afin de vérifier l'une des citations. L'IA a confirmé à tort l'existence et les détails de l'affaire, démontrant ainsi le manque de fiabilité de tels outils pour la recherche juridique. Le tribunal a estimé que l'équipe juridique s'était probablement appuyée sur des documents générés par l'IA sans en vérifier l'exactitude, ce qui a conduit à la soumission de références fictives.
Il est apparu clairement que les recherches générées par l'IA incluaient des références à des cas inventés, ce qui a soulevé de sérieuses inquiétudes quant à la fiabilité des travaux juridiques produits grâce à l'IA.
Raisonnement
Le tribunal a souligné que les praticiens du droit ont le devoir éthique de ne pas induire le tribunal en erreur, que ce soit intentionnellement ou par négligence. Il a déclaré qu'une méconnaissance des risques liés à l'IA n'excuse pas un manquement à ce devoir.
La soumission de sources juridiques fausses ou inexistantes déforme le droit et constitue une violation des normes professionnelles. Le tribunal a également souligné que les praticiens du droit doivent superviser correctement leur personnel et s'assurer que toutes les informations, y compris celles provenant de l'IA, sont exactes et fiables.
Ordonnance
- Le tribunal a rejeté la demande d'autorisation d'appel de M. Mavundla, estimant qu'elle n'avait aucune chance raisonnable de succès. Il a critiqué les conclusions, les qualifiant d'erronées et de non professionnelles.
- Le tribunal a condamné Surendra Singh and Associates, le cabinet d'avocats représentant M. Mavundla, à payer les frais liés aux comparutions supplémentaires à des dates précises. Cette ordonnance a marqué la désapprobation du tribunal quant à la conduite du cabinet, qui a soumis des citations juridiques non vérifiées et fictives.
- Le greffier a été chargé de transmettre une copie du jugement au Conseil de la pratique juridique (Bureau provincial du KwaZulu-Natal) pour enquête et éventuelles sanctions disciplinaires à l'encontre des juristes impliqués. Cette mesure reflète la vive préoccupation du tribunal concernant l'utilisation abusive de contenus générés par l'IA et son impact sur l'intégrité professionnelle dans les procédures judiciaires.
Détails de l'affaire Mavundla c. MEC : COGTA
- Citation universelle : [2025] ZAKZPHC 2
- Numéro de l'affaire : 7940/2024P
- Nom complet : Mavundla c. MEC : Département du gouvernement coopératif et des affaires traditionnelles du KwaZulu-Natal et autres