Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6133

Incidents associés

Incident 11841 Rapport
Purported Fictitious AI-Generated Citations in Supreme Court of Victoria Murder Case Filing Lead to Delay and King's Counsel Apology

Loading...
Un avocat australien s'excuse pour les erreurs générées par l'IA dans une affaire de meurtre
apnews.com · 2025

MELBOURNE, Australie (AP) --- Un avocat australien chevronné a présenté ses excuses à un juge pour avoir déposé des conclusions dans une affaire de meurtre, contenant de fausses citations et des jugements inexistants, générés par l'intelligence artificielle.

Cette erreur à la Cour suprême de l'État de Victoria s'ajoute à une longue série d'incidents causés par l'IA dans les systèmes judiciaires à travers le monde.

L'avocat de la défense Rishi Nathwani, titulaire du prestigieux titre de conseiller du roi, a assumé l'« entière responsabilité » du dépôt d'informations erronées dans les conclusions de l'affaire d'un adolescent accusé de meurtre, selon des documents judiciaires consultés par l'Associated Press vendredi.

« Nous sommes profondément désolés et embarrassés par ce qui s'est passé », a déclaré M. Nathwani au juge James Elliott mercredi, au nom de la défense.

Les erreurs générées par l'IA ont retardé de 24 heures la résolution d'une affaire qu'Elliott espérait conclure mercredi. Elliott a statué jeudi que le client de Nathwani, dont l'identité est inexistante en raison de sa minorité, n'était pas coupable de meurtre pour cause de déficience mentale.

« Au risque d'être un euphémisme, la manière dont ces événements se sont déroulés est insatisfaisante », a déclaré Elliott aux avocats jeudi.

« La capacité du tribunal à se fier à l'exactitude des conclusions des avocats est fondamentale pour une bonne administration de la justice », a ajouté Elliott.

Les fausses conclusions comprenaient des citations fabriquées de toutes pièces d'un discours prononcé devant l'assemblée législative de l'État et des citations inexistantes d'arrêts prétendument émanant de la Cour suprême.

Les erreurs ont été découvertes par les associés d'Elliott, qui n'ont pas pu retrouver les dossiers et ont demandé aux avocats de la défense d'en fournir des copies.

Les avocats ont admis que les citations « n'existaient pas » et que la soumission contenait des « citations fictives », selon les documents judiciaires.

Les avocats ont expliqué avoir vérifié l'exactitude des citations initiales et avoir supposé à tort que les autres le seraient également.

Les soumissions ont également été transmises au procureur Daniel Porceddu, qui n'a pas vérifié leur exactitude.

Le juge a souligné que la Cour suprême avait publié l'année dernière des lignes directrices sur l'utilisation de l'IA par les avocats.

« Il est inacceptable que l'intelligence artificielle soit utilisée sans que le produit de cette utilisation soit vérifié de manière indépendante et approfondie », a déclaré Elliott.

Les documents judiciaires n'identifient pas le système d'intelligence artificielle générative utilisé par les avocats.

Dans une affaire comparable aux États-Unis en 2023, un juge fédéral a infligé des amendes de 5 000 $ à deux avocats et à un cabinet d’avocats après que ChatGPT a été accusé d’avoir présenté des recherches juridiques fictives dans le cadre d’une réclamation pour blessure aérienne.

Le juge P. Kevin Castel a déclaré qu’ils avaient agi de mauvaise foi. Il a toutefois salué leurs excuses et les mesures correctives prises pour expliquer pourquoi des sanctions plus sévères n'étaient pas nécessaires afin de garantir qu'eux-mêmes ou d'autres ne laisseront plus les outils d'intelligence artificielle les inciter à produire de faux antécédents juridiques dans leurs arguments.

Plus tard cette année-là, d'autres décisions de justice fictives inventées par l'IA ont été citées dans des documents juridiques déposés par les avocats de Michael Cohen, ancien avocat personnel du président américain Donald Trump. Cohen a endossé la responsabilité, affirmant qu'il n'avait pas réalisé que l'outil Google qu'il utilisait pour ses recherches juridiques était également capable de ce que l'on appelle des hallucinations d'IA.

La juge de la Haute Cour britannique Victoria Sharp a averti en juin que fournir de faux documents comme s'ils étaient authentiques pourrait être considéré comme un outrage au tribunal ou, dans les « cas les plus flagrants », une perversion du cours de la justice, passible d'une peine maximale de prison à vie.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd