Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5063

Incidents associés

Incident 10271 Rapport
Norwegian Supreme Court Receives Legal Filing with Fabricated Citations Allegedly Generated by AI Tool

Loading...
La Cour suprême a reçu son premier mémoire procédural contenant des sources fabriquées
advokatbladet.no · 2025

Au cours du premier trimestre de cette année, la Cour suprême a reçu un document de procédure contenant des soi-disant hallucinations, c'est-à-dire des informations fabriquées. C'est ce que déclare la juge de la Cour suprême Toril Marie Øie à Advokatbladet.

L'acte de procédure, déposé dans le cadre d'un appel sur une question de procédure dans une affaire civile, contenait à la fois des lois et des documents préparatoires qui n'existent tout simplement pas, explique Øie.

Il a été découvert en interne que ces sources étaient fabriquées lorsque l’appel a été examiné par la Cour suprême.

Les enquêteurs qui préparent les dossiers à entendre devant la Cour suprême examinent systématiquement les sources juridiques centrales mentionnées dans les plaidoiries des parties. 

-- Les plaidoiries faisaient référence à diverses sources juridiques et reproduisaient des citations de ces sources. Lorsque notre enquêteur a essayé de trouver ces sources, il s’est avéré qu’elles n’existaient pas. Ici, l'avocat n'avait tout simplement pas vérifié les sources de KI avant le dépôt de la plainte, explique Øie.

-- Surpris

Ce n’est pas la première fois que l’intelligence artificielle a des hallucinations. Des sources juridiques fictives sont déjà apparues devant les tribunaux aux États-Unis. Fin mars, il a également été révélé qu'un rapport sur la structure scolaire de Tromsø contenait des sources fictives.

C'est la première fois que la question des hallucinations est évoquée devant la Cour suprême norvégienne. 

Øie dit qu'elle a été surprise par l'incident :

« J’ai été surprise de constater qu’il ne semblait y avoir aucun contrôle sur les sources », dit-elle.

Des sanctions peuvent s'appliquer 

  • Quelles conséquences l'incident a-t-il eu pour l'avocat responsable ?

  • Lorsque le problème a été découvert, nous l’avons soulevé auprès de l’avocat concerné. La Cour suprême a le pouvoir d’imposer une amende procédurale ou de porter des affaires devant le Conseil du barreau. Ces mesures n'ont pas été utilisées dans ce cas, mais je ne peux pas exclure qu'elles puissent être utilisées dans d'autres cas à l'avenir, dit Øie.

Elle affirme que la Cour suprême s’attache actuellement à souligner la responsabilité des avocats.

-- Les avocats sont différents et disposent d’appareils différents autour d’eux. Tout le monde ne travaille pas dans de grandes entreprises dotées d’un système de soutien important et de nombreux conseils en interne. L'important pour nous est donc désormais de fournir une bonne information et de souligner fortement auprès des avocats quelles sont nos attentes, explique Øie.

  • Si les poursuites judiciaires pour hallucinations deviennent un problème à l’avenir, nous devons envisager d’utiliser les options de sanction dont nous disposons. J'attends désormais des avocats que cela ne pose pas de problème à l'avenir, poursuit-elle.

L’intelligence artificielle n’exonère pas de responsabilité

Øie estime que l’intelligence artificielle peut être un outil approprié, mais nous rappelle en même temps la responsabilité des avocats s’ils choisissent de l’utiliser. 

-- La Cour suprême est consciente que l’intelligence artificielle est là pour rester et qu’elle peut être un outil utile pour les avocats. Dans le même temps, les avocats doivent être conscients de leurs responsabilités. Les avocats ont la même responsabilité dans la clarification de l’affaire, tant factuelle que juridique, qu’ils utilisent ou non l’intelligence artificielle.

Elle souligne que les connaissances sur les hallucinations sont bien connues et que ce problème doit être pris en compte par les avocats. 

  • Nous avons une attente claire selon laquelle l’IA ne sera utilisée que dans les domaines où vous avez vous-même suffisamment d’expertise pour vérifier que le contenu est correct. L'avocat doit, comme d'habitude, s'assurer que les sources clés sont présentées correctement, tant en ce qui concerne leur existence réelle que l'exactitude du contenu reproduit.

Modifie le guide de l'avocat

Jeudi, la Cour suprême publiera une version mise à jour du guide de l'avocat avec un nouveau point sur l'utilisation des outils d'IA.

Le guide vise à préparer les avocats aux procédures d’appel devant la Cour suprême.

--Nous souhaitons transmettre nos attentes envers les avocats qui utiliseront l’IA à l’avenir. Le Guide des avocats est notre canal le plus important pour communiquer avec les avocats. Nous savons que cette méthode est largement utilisée par les avocats qui comparaissent devant la Cour suprême, ainsi que devant les tribunaux inférieurs. C'est pourquoi nous mettons à jour ceci maintenant.

Le nouveau point stipule, entre autres, que « l’on sait que l’IA peut halluciner et inventer, entre autres, des sources légales ». Les sources et autres informations fournies par KI doivent être de qualité garantie. L’IA ne devrait être utilisée que dans les domaines où l’avocat possède une expertise suffisante pour contrôler le contenu.

- Cela ne devrait pas être une surprise

La présidente du barreau norvégien, Siri Teigum, n’est pas surprise par le problème. 

  • On s'attendait à ce qu'à un moment donné, quelque chose de similaire se produise également en Norvège, mais je suis très surpris que cela se produise dans un document de procédure adressé à la Cour suprême. C'est vraiment dommage, dit-elle.

Teigum est convaincu que la Cour suprême a désormais mis à jour le guide juridique sur ce point, mais souligne que le contenu ne devrait pas surprendre les avocats. 

  • Les mêmes exigences de qualité et d’éthique s’appliquent, que les avocats utilisent ou non l’intelligence artificielle. Je pense qu’il est positif que la Cour suprême mentionne cela dans son guide, mais c’est quelque chose qu’un avocat devrait comprendre même sans une telle clarification. 

Teigum affirme que le barreau norvégien travaille pour garantir que cela ne se reproduise plus.

  • L'Association du barreau norvégien veut contribuer à garantir que cela ne se reproduise plus. Nous organisons régulièrement des cours sur l’IA et le Comité d’éthique juridique du Barreau norvégien prépare actuellement des lignes directrices sur l’utilisation de l’intelligence artificielle.
Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd