Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 573

Incidents associés

Incident 3624 Rapports
Picture of Woman on Side of Bus Shamed for Jaywalking

Loading...
La reconnaissance faciale signale à une femme dans un bus une publicité pour « Jaywalking » en Chine
gizmodo.com.au · 2018

Photo : Getty

Le système de surveillance chinois devient de plus en plus omniprésent, avec environ 200 millions de caméras et plus encore. Bien que cet état d'existence à lui seul soit troublant, il est encore plus troublant que les machines gâchent même la tâche la plus simple.

La semaine dernière, le visage de Dong Mingzhu – la présidente d'un important fabricant de climatiseurs en Chine – a été affiché sur un écran géant de la taille d'un panneau d'affichage à Ningbo, une grande ville portuaire de la province du Zhejiang, dans l'est de la Chine, pour lui faire publiquement honte d'avoir interrompu un trafic. droit. Le Zhejiang est l'une des provinces qui a déployé l'année dernière une technologie de reconnaissance faciale qui humilie les citoyens qui se promènent en mettant leurs photos sur des écrans LED massifs. Mais les caméras n'ont pas surpris Mingzhu en train de traverser la rue – elles ont identifié une photo d'elle dans une publicité pour un bus, a rapporté le South China Morning Post.

La police de la circulation de la ville aurait annoncé mercredi dans un article de blog sur Sina Weibo qu'elle avait supprimé la photo et que son système de surveillance serait corrigé pour éviter de futures erreurs d'identification. Et Gree Electric Appliances, la société pour laquelle Mingzhu travaille, aurait également publié un article de blog sur Sina Weibo le même jour exprimant sa gratitude envers la police de la circulation de la ville et exhortant les gens à respecter les règles de circulation.

Bien que la police de la circulation ait apparemment été rapide à reconnaître et à remédier au raté de leur système, et que la réponse de Gree ait été sympathique, cet incident signale toujours un problème flagrant avec l'adoption massive de systèmes de reconnaissance basés sur l'IA : la technologie est toujours ridiculement défectueuse. C'est loin d'être le premier incident dans lequel un algorithme n'a pas réussi à détecter la nuance du monde humain qui l'entoure, et il n'y a pas encore de système d'IA massivement déployé qui s'est avéré parfait.

Signaler par erreur quelqu'un pour jaywalking parce qu'une machine a confondu une publicité de bus en mouvement avec un véritable humain en trois dimensions n'est pas si dangereux en soi, mais les panneaux d'affichage honteux ne sont pas les seuls systèmes de reconnaissance faciale qui prolifèrent en Chine. En fait, la société de recherche IHS Markit prévoit que la Chine achètera plus des trois quarts des serveurs spécialement conçus pour parcourir les images de surveillance à la recherche de visages, rapporte le New York Times.

"Dans le passé, tout était une question d'instinct", a déclaré au Times Shan Jun, chef adjoint de la police à la gare de Zhengzhou, où un policier a identifié un trafiquant d'héroïne à l'aide de lunettes de reconnaissance faciale. "Si vous avez manqué quelque chose, vous l'avez manqué."

Les machines ne sont pas capables d'instinct, et en plus de ne pas pouvoir différencier les subtilités du monde physique (c'est-à-dire une photo dans une publicité d'une personne en chair et en os), elles ne sont pas non plus exemptes de préjugés. Il est facile d'imaginer comment ces défauts peuvent mal tourner non seulement lorsqu'ils sont utilisés pour humilier les passants, mais aussi pour classer socialement les citoyens et identifier les suspects.

[Poste du matin de la Chine du Sud]

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd