Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6344

Incidents associés

Incident 12573 Rapports
Argentine Court Reportedly Annuls Criminal Conviction After Judge Allegedly Used ChatGPT to Draft Ruling Without Disclosure

Loading...
Le juge d'Esquel qui a utilisé Chat pour rédiger une sentence fera l'objet d'une enquête.
lanacion.com.ar · 2025

Le tribunal correctionnel d'Esquel a décidé mercredi d'annuler d'office le jugement rendu le 4 juin par le juge Carlos Rogelio Richeri, qui avait condamné Raúl Amelio Payalef à deux ans et six mois d'emprisonnement.

Le motif de cette annulation est sans précédent dans le système judiciaire argentin : le juge a inclus par inadvertance dans le texte de sa décision une phrase révélant l'utilisation d'un assistant d'intelligence artificielle générative (IA) – vraisemblablement ChatGPT – pour la rédaction d'une partie du jugement.

La phrase incriminée, figurant dans la section relative aux points décisifs, était la suivante : « Voici le point IV réédité, sans citations et prêt à être copié-collé. » Cette erreur a permis aux juges Carina Estefanía, Martín Zacchino et Hernán Dal Verme de constater que le juge avait utilisé un outil automatisé sans le mentionner ni exercer le contrôle humain nécessaire sur son contenu.

« Ces éléments de preuve (le « copier-coller ») ne permettent pas de déterminer avec précision la part du texte imputable à l’IA générative et celle imputable au juge », ont déclaré les juges dans leur arrêt, tout en soulignant que cette pratique contrevient à l’interdiction de déléguer des décisions judiciaires à des systèmes automatisés, violant ainsi le principe du juge naturel.

La Cour a constaté que Richeri n’avait pas exercé le contrôle humain obligatoire sur le contenu généré par l’assistance technologique et, de surcroît, avait signé le jugement sans mentionner la référence à l’IA.

La Cour a souligné que l’absence de traçabilité et d’enregistrement des requêtes adressées à l’outil rend impossible la reconstitution du raisonnement du juge, « assimilant la décision à une réponse purement dogmatique ou dénuée de motivation ».

Pour ces raisons, les juges ont décidé d’annuler le jugement et le procès qui l’a précédé, ordonnant que la procédure soit rejugée par un autre juge. Dans le même temps, ils ont ordonné le renvoi de l'affaire devant la Cour supérieure de justice de Chubut (STJ), qui examinera les implications déontologiques et disciplinaires de la conduite de Richeri.

« L'utilisation abusive de l'intelligence artificielle générative a engendré de graves conséquences dans cette procédure, affectant les justiciables, l'ensemble des citoyens et l'État, responsable de garantir l'accès à la justice et une protection judiciaire effective », indique l'arrêt de la Chambre.

Outre la potentielle violation déontologique, les juges ont relevé que le magistrat pourrait avoir enfreint les règles de confidentialité établies par l'Accord plénier n° 5435 de la STJ elle-même, qui impose la protection de l'identité des parties, des témoins et des experts lors du traitement numérique des informations judiciaires. Le recours à un assistant en ligne aurait entraîné la divulgation de données personnelles et sensibles en dehors du système judiciaire.

Cette situation soulève un débat qui dépasse le cadre de cette affaire particulière : dans quelle mesure les outils d'IA peuvent-ils interférer avec le travail judiciaire ? Alors que le recours à l'intelligence artificielle pour l'assistance documentaire ou l'analyse jurisprudentielle se développe dans divers systèmes judiciaires, les experts s'accordent à dire que les décisions de justice ne peuvent être déléguées à des systèmes automatisés, précisément en raison des risques de biais, d'opacité et d'absence de justification vérifiable.

L'affaire Esquel – la première du genre à avoir entraîné des conséquences disciplinaires dans le système judiciaire argentin – a relancé le débat sur les limites éthiques et techniques de l'intelligence artificielle dans la sphère judiciaire.

Alors que la Cour supérieure de justice de Chubut examine la conduite de Richeri, cette affaire fera vraisemblablement jurisprudence quant à l'utilisation responsable de ces outils dans le processus décisionnel public.

Qui est le juge Richeri ?


Avant que cette question de l'utilisation abusive de l'intelligence artificielle ne soit soulevée, le juge Carlos Rogelio Richeri avait déjà une brillante carrière au sein du système de justice pénale de Chubut.

Richeri a été sélectionné comme juge pénal d'Esquel à l'issue d'un concours organisé par le Conseil des magistrats de Chubut, dont les résultats ont été soumis à l'approbation du Parlement. Il a pris ses fonctions le 1er mars 2023, lors d'une cérémonie au palais de justice d'Esquel.

Avant de rejoindre le tribunal, il était procureur général d'Esquel et membre de l'équipe spécialisée en cybercriminalité, possédant une expérience des affaires d'une grande complexité technique. Il enseigne également le contentieux et les preuves numériques, témoignant de son intérêt pour les aspects technologiques du processus pénal.

Durant son mandat de juge, il a présidé des affaires très médiatisées, notamment la condamnation de deux frères et de leur mère pour une escroquerie de plusieurs millions de dollars visant un retraité de 87 ans, ainsi qu'une décision confirmant le rejet par le procureur d'une plainte contre des membres de la Cour supérieure de justice, et dans laquelle il a adressé un avertissement sévère aux avocats concernés.

Certains l'ont félicité d'avoir accepté des affaires complexes dont d'autres juges s'étaient récusés, tandis que d'autres l'ont critiqué pour son intervention dans des affaires hors de sa juridiction territoriale.

Quoi qu’il en soit, son parcours de juriste doté d’une formation technologique rend d’autant plus frappant l’épisode qui le place aujourd’hui au cœur de la controverse juridique sur le mauvais usage de l’intelligence artificielle.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd