Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1371

Incidents associés

Incident 1115 Rapports
Northpointe Risk Models

Loading...
Un nouveau programme juge si vous êtes un criminel à partir de vos traits du visage
vice.com · 2016

Comme une version plus tordue du test Voight-Kampff de Blade Runner, un nouvel article d'apprentissage automatique d'une paire de chercheurs chinois s'est penché sur la tâche controversée de laisser un ordinateur décider de votre innocence. Un ordinateur peut-il savoir si vous êtes un criminel juste à partir de votre visage ?

Dans leur article « Automated Inference on Criminality using Face Images », publié sur le serveur de préimpression arXiv, Xiaolin Wu et Xi Zhang de l'Université Jiao Tong de Shanghai en Chine étudient si un ordinateur peut détecter si un humain pourrait être un criminel condamné simplement en analysant ses traits de visage. Les deux hommes disent que leurs tests ont réussi et qu'ils ont même trouvé une nouvelle loi régissant "la normalité des visages de non-criminels".

PUBLICITÉ

Ils ont décrit l'idée d'algorithmes capables d'égaler et de dépasser les performances d'un humain en matière de reconnaissance faciale pour en déduire que la criminalité est "irrésistible". Mais comme le soulignent un certain nombre d'utilisateurs de Twitter et de commentateurs sur Hacker News, en ajoutant des biais à l'intelligence artificielle et aux algorithmes d'apprentissage automatique, l'ordinateur pourrait agir sur ces biais. Les chercheurs soutiennent que les ensembles de données ont été contrôlés pour la race, le sexe, l'âge et les expressions faciales.

Imaginez cela avec des drones, chaque caméra CCTV dans chaque ville, les yeux des voitures autonomes, partout où il y a une caméra… Tim Maughan18 novembre 2016

Les images utilisées dans la recherche étaient des photographies d'identité standard d'hommes chinois âgés de 18 à 55 ans, sans poils faciaux, cicatrices ou autres marques. Wu et Zhang soulignent que les photos d'identité utilisées n'étaient pas des photos d'identité de la police et que sur 730 criminels, 235 ont commis des crimes violents "y compris des meurtres, des viols, des agressions, des enlèvements et des vols".

Les deux déclarent qu'ils ont délibérément retiré "tout facteur humain subtil" du processus d'évaluation. Tant que les ensembles de données sont finement contrôlés, les préjugés humains pourraient-ils être complètement éradiqués ? Wu a déclaré à Motherboard que les préjugés humains n'entraient pas en ligne de compte. "En fait, nous avons obtenu notre premier lot de résultats il y a un an. Nous avons procédé à une vérification très rigoureuse de nos ensembles de données et avons également effectué de nombreux tests à la recherche de contre-exemples, mais nous n'en avons trouvé aucun", a déclaré Wu.

Voici comment cela a fonctionné : Xiaolin et Xi ont introduit dans un algorithme d'apprentissage automatique des images faciales de 1 856 personnes, dont la moitié étaient des criminels condamnés, puis ont observé si l'un de leurs quatre classificateurs, chacun utilisant une méthode différente d'analyse des traits du visage, pouvait déduire la criminalité. .

PUBLICITÉ

Ils ont constaté que leurs quatre classificateurs différents étaient pour la plupart efficaces et que les visages des criminels et des personnes non condamnées pour des crimes diffèrent de manières clés perceptibles par un programme informatique. De plus, « la variation entre les visages criminels est significativement plus grande que celle des visages non criminels », écrivent Xiaolin et Xi.

"De plus, nous trouvons des caractéristiques structurelles discriminantes pour prédire la criminalité, telles que la courbure des lèvres",

"Les quatre classificateurs fonctionnent toujours bien et produisent des preuves de la validité de l'inférence automatisée induite par le visage sur la criminalité, malgré la controverse historique entourant le sujet", écrivent les chercheurs. "Nous trouvons également certaines caractéristiques structurelles discriminantes pour prédire la criminalité, telles que la courbure des lèvres, la distance du coin interne des yeux et le soi-disant angle nez-bouche." Le meilleur classificateur, connu sous le nom de Convolutional Neural Network, a atteint une précision de 89,51 % dans les tests.

"Par des expériences approfondies et des validations croisées vigoureuses", concluent les chercheurs, "nous avons démontré que, grâce à l'apprentissage automatique supervisé, les classificateurs de visage basés sur les données sont capables de faire des inférences fiables sur la criminalité".

Alors que Xiaolin et Xi admettent dans leur article qu'ils ne sont "pas qualifiés pour discuter ou débattre des stéréotypes sociétaux", le problème est que l'apprentissage automatique est apte à détecter les biais humains dans les ensembles de données et à agir sur ces biais, comme le prouvent plusieurs incidents récents. La paire admet qu'elle est sur un terrain fragile. "Nous avons été accusés sur Internet d'être socialement irresponsables", a déclaré Wu.

PUBLICITÉ

Cet article est la raison exacte pour laquelle nous devons réfléchir à l'éthique dans l'IA. Stephen MayhewNovembre 17, 2016

Dans l'article, ils poursuivent en citant le philosophe Aristote, "Il est possible de déduire le caractère des caractéristiques", mais cela doit être laissé aux psychologues humains, pas aux machines, sûrement ? L'une des principales préoccupations à l'avenir est celle des faux positifs, c'est-à-dire l'identification de personnes innocentes comme coupables, en particulier si ce programme est utilisé dans n'importe quel contexte de justice pénale du monde réel. Les chercheurs ont déclaré que les algorithmes avaient généré des faux positifs (identifiant les non-criminels comme des criminels) et des faux négatifs (identifiant les criminels comme des non-criminels), qui augmentaient lorsque les visages étaient étiquetés au hasard pour les tests de contrôle.

Les critiques en ligne ont fustigé le journal. "J'ai pensé que c'était une blague quand j'ai lu le résumé, mais il semble que ce soit un véritable article", a déclaré un utilisateur de Hacker News. "Je suis d'accord que c'est un domaine d'étude tout à fait valable... mais pour le faire, vous avez besoin d'experts en criminologie, physiologie et apprentissage automatique, pas seulement quelques personnes qui peuvent suivre les instructions de Keras sur la façon d'utiliser un réseau neuronal pour la classification."

Lire la suite : A.I. soutenue par Google. Vise à aider les journalistes à rédiger de meilleurs reportages

D'autres ont remis en question la validité de l'article, notant que l'un des chercheurs est répertorié comme ayant un compte Gmail. "Tout d'abord, je ne pense pas que ce soit de la satire. J'admets que l'utilisation d'un compte gmail par un chercheur d'une université chinoise est apparemment suspecte", a posé un autre lecteur de Hackers News.

Wu avait cependant une réponse à cela. "Certains se sont demandé pourquoi j'utilisais une adresse gmail en tant que membre du corps professoral en Chine. En fait, je suis également professeur à l'Université McMaster, au Canada", a-t-il déclaré à Motherboard.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd