Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2236

Incidents associés

Incident 1803 Rapports
Algorithm Used by the Malaysian Judiciary Reportedly Recommended Unusually High Sentencing to a Drug Possession Case

Loading...
Alors que la Malaisie teste les condamnations des tribunaux d'IA, les avocats craignent pour la justice
news.trust.org · 2022

BANGKOK, 12 avril (Fondation Thomson Reuters) - Peu de cas ébranlent Hamid Ismail après près de deux décennies en tant qu'avocat, mais il a été surpris lorsqu'un homme qu'il défendait a été condamné à l'aide d'un outil d'intelligence artificielle dans l'État malaisien de Sabah.

Ismail savait que les tribunaux de Sabah et du Sarawak voisin testaient l'outil d'IA pour les recommandations de condamnation dans le cadre d'un projet pilote national, mais il était inquiet que la technologie soit utilisée avant que les avocats, les juges et le public ne la comprennent pleinement.

Il n'y a pas eu de consultation appropriée sur l'utilisation de la technologie, et cela n'est pas prévu dans le code pénal du pays, a-t-il déclaré.

"Notre Code de procédure pénale ne prévoit pas l'utilisation de l'IA devant les tribunaux... Je pense que c'est inconstitutionnel", a déclaré Ismail, ajoutant que la peine recommandée par l'IA pour son client pour une accusation de possession mineure de drogue était trop sévère.

Les tribunaux de Sabah et Sarawak ont piloté un logiciel développé par Sarawak Information Systems, une entreprise gouvernementale de l'État, qui a déclaré à l'époque qu'elle avait tenu des consultations au cours du processus et pris des mesures pour répondre à certaines des préoccupations soulevées.

Dans le monde entier, l'utilisation de l'IA dans le système de justice pénale se développe rapidement, depuis le populaire DoNotPay [avocat chatbot](https://nam02.safelinks.protection.outlook.com/?url=https%3A%2F%2Fdonotpay. com%2F&data=04%7C01%7CBeatrice.Tridimas%40thomsonreuters.com%7C402a093d65cd4ecae3bb08da1bc99ff2%7C62ccb8646a1a4b5d8e1c397dec1a8258%7C0%7C0%7C637852850059918402%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000&sdata=8jd9NRml2Qz6iOxCc5OM7dlF4vgbd3BGIB959Ncubak%3D&reserved=0) mobile app to robot judges in Estonia adjudicating small claims , aux robots médiateurs au Canada et aux juges IA des tribunaux chinois.

Les autorités affirment que les systèmes basés sur l'IA rendent les condamnations plus cohérentes et peuvent éliminer les arriérés d'affaires rapidement et à moindre coût, aidant toutes les parties aux procédures judiciaires à éviter des litiges longs, coûteux et stressants.

Plus d'un tiers des répondants gouvernementaux dans un contexte mondial Une enquête réalisée l'année dernière par la société de recherche Gartner a indiqué qu'elle prévoyait d'augmenter les investissements dans les systèmes alimentés par l'IA, notamment les chatbots, la reconnaissance faciale et l'exploration de données dans tous les secteurs.

Ce mois-ci, [les autorités fédérales malaisiennes](https://www.kehakiman.gov.my/sites/default/files/Kenyataan%20Media%20-%20Garis%20Panduan%20Pelaksanaan%20Penghukuman%20Menggunakan%20Teknologi%20Artificial%20Intelligence% 20di%20Mahkamah%20Rendah%20Semenanjung%20Malaysia.pdf) visent à conclure leur essai national des outils de détermination de la peine de l'IA, qui, selon eux, "peuvent améliorer la qualité du jugement", bien qu'il ne soit pas tout à fait clair comment ils seront utilisés dans les tribunaux .

Un porte-parole du juge en chef de Malaisie a déclaré que l'utilisation de l'IA dans les tribunaux était "encore au stade du procès", refusant tout autre commentaire.

Biais, facteurs atténuants

Les critiques avertissent que l'IA risque de s'enraciner et [d'amplifier le biais](https://nam02.safelinks.protection.outlook.com/?url=https%3A%2F%2Fnews.trust.org%2Fitem%2F20210618133831-21l6r&data=04%7C01% 7CBeatrice.Tridimas%40thomsonreuters.com%7C402a093d65cd4ecae3bb08da1bc99ff2%7C62ccb8646a1a4b5d8e1c397dec1a8258%7C0%7C0%7C637852850059918402%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000&sdata=qqWtx3X9o7V5m1i36iENHa45qBDcURM%2BvLWlQjbURmo%3D&reserved=0) against minorities and marginalised groups, saying the technology lacks a judge's ability to weigh up circonstances individuelles ou s'adapter à l'évolution des mœurs sociales.

"Lors de la détermination de la peine, les juges ne se contentent pas d'examiner les faits de l'affaire - ils tiennent également compte des facteurs atténuants et utilisent leur pouvoir discrétionnaire. Mais AI ne peut pas faire preuve de discrétion", a déclaré Ismail à la Fondation Thomson Reuters.

Considérer les facteurs aggravants et atténuants "nécessite un esprit humain", a déclaré Charles Hector Fernandez, un avocat malaisien des droits de l'homme.

"Les peines varient également en fonction des temps et de l'opinion publique. Nous avons besoin de plus de juges et de procureurs pour gérer l'augmentation du nombre d'affaires ; l'IA ne peut pas remplacer les juges humains", a-t-il ajouté.

Cherchant à répondre aux préoccupations selon lesquelles son logiciel d'IA pourrait entraîner des biais dans la détermination de la peine, Sarawak Information Systems a déclaré avoir supprimé la variable "race" de l'algorithme.

Mais si "de telles mesures d'atténuation sont précieuses, elles ne rendent pas le système parfait", a déclaré un rapport de 2020 sur l'outil du Khazanah Research Institute (KRI), un groupe de réflexion politique.

Il a également noté que la société n'avait utilisé qu'un ensemble de données de cinq ans de 2014 à 2019 pour former l'algorithme, "ce qui semble quelque peu limité par rapport aux vastes bases de données utilisées dans les efforts mondiaux".

Sarawak Information Systems n'a pas pu être joint pour savoir s'il avait depuis élargi sa base de données.

Une analyse par KRI des affaires à Sabah et Sarawak a montré que les juges ont suivi la recommandation de condamnation d'AI dans un tiers des affaires, qui impliquaient toutes un viol ou une possession de drogue selon les termes du projet pilote des deux États.

Certains des juges ont réduit les peines suggérées à la lumière de facteurs atténuants. D'autres ont été durcis au motif qu'ils ne serviraient pas de "dissuasion assez forte".

"Algorithme opaque"

La technologie a le potentiel d'améliorer l'efficacité du système de justice pénale, a déclaré Simon Chesterman, professeur de droit à l'Université nationale de Singapour.

Mais sa légitimité dépend non seulement de la justesse des décisions prises, mais aussi de la manière dont elles sont prises, a-t-il ajouté.

"De nombreuses décisions pourraient être correctement confiées aux machines. (Mais) un juge ne devrait pas sous-traiter le pouvoir discrétionnaire à un algorithme opaque", a déclaré Chesterman, directeur principal d'AI Singapore, un programme gouvernemental.

Le Conseil du barreau de Malaisie, qui représente les avocats, a également exprimé sa préoccupation concernant le projet pilote d'IA.

Lorsque les tribunaux de Kuala Lumpur, la capitale, ont commencé à l'utiliser à la mi-2021 pour prononcer des peines dans 20 types de crimes, le conseil a déclaré qu'il n'avait "pas du tout donné de directives et que nous n'avions aucune possibilité d'obtenir les commentaires des praticiens du droit pénal".

À Sabah, Ismail a fait appel de la recommandation de peine de son client par l'outil d'intelligence artificielle, que le juge a suivie.

Mais il a déclaré que de nombreux avocats ne contesteraient pas, condamnant potentiellement leurs clients à des peines trop sévères.

"L'IA agit comme un juge principal", a déclaré Ismail.

"Les jeunes magistrats peuvent penser que c'est la meilleure décision et l'accepter sans poser de questions."

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd