Incidents associés
Le tribunal correctionnel d'Esquel a cassé une condamnation car le juge avait délégué la tâche à un chatbot doté d'intelligence artificielle, et une simple phrase a révélé son inaction.
Utilisation abusive de l'intelligence artificielle
Le tribunal a cassé le jugement du 4 juin 2025 du juge Carlos Rogelio Richeri, qui condamnait Raul Amelio Payalef à deux ans et six mois de prison ferme.
« Le tribunal a pris cette décision après avoir constaté que le juge de première instance avait inclus par inadvertance une phrase révélant le recours à un assistant d'intelligence artificielle générative (IA) pour rédiger le jugement. En conséquence, le procès devra être rejugé devant un autre juge », a indiqué le parquet de Chubut.
Les juges de la Chambre, Carina Estefanía, Martín Zacchino et Hernán Dal Verme, ont ordonné le renvoi de la procédure devant la Cour supérieure de justice, compétente pour enquêter sur les graves conséquences de l'utilisation abusive de l'intelligence artificielle, ayant entraîné la nullité du jugement et du procès, et ce, avec toutes les conséquences que cela implique pour les justiciables, pour tous les citoyens et pour l'État, responsable de l'accès à la justice et d'une protection judiciaire effective.
« Prêt à copier-coller »
« La preuve la plus flagrante de l'utilisation de l'intelligence artificielle générative réside dans une erreur : une phrase extraite de la conversation avec l'assistant virtuel a été intégrée au jugement : “Voici le point IV réédité, sans citations et prêt à copier-coller” », a déclaré le parquet de Chubut.
Ainsi, les juges ont estimé que cette preuve (« copier-coller ») crée un écart trop important pour déterminer la part du texte attribuable à l'IA générative (IAGen) et celle attribuable au juge, « ce qui contrevient à l'interdiction de déléguer les décisions judiciaires à des systèmes automatisés ».
Selon l'instance officielle, « déléguer la fonction de juger violerait le principe du juge naturel ».
« Cette erreur démontre, aux yeux de la cour d'appel, que le juge n'a pas exercé correctement le contrôle humain obligatoire, en signant sa décision avec la mention de l'IA. L'omission de consigner l'utilisation de l'IA, ainsi que les exigences imposées à l'assistant, empêche de retracer le raisonnement du juge, rendant la décision potentiellement assimilable à une réponse purement dogmatique ou non motivée », ont-ils argumenté.
« Manque de déontologie du juge »
Le Tribunal supérieur de justice de Chubut devra également enquêter sur « l'étendue du manquement à la déontologie du juge » en raison de « l'utilisation inappropriée de l'IA » et des « graves conséquences » sur la procédure pénale.
Les juges ont également averti que Richeri « pourrait avoir violé les exigences de confidentialité établies par l'Accord plénier n° 5435 du Tribunal supérieur de justice, en incluant les noms des parties, des témoins et des experts dans le texte traité par l'assistant ».