Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1013

Incidents associés

Incident 5417 Rapports
Predictive Policing Biases of PredPol

Incident 4339 Rapports
Chicago Police's Strategic Subject List Reportedly Biased Along Racial Lines

Loading...
Les données de la police pourraient étiqueter des "suspects" pour des crimes qu'ils n'ont pas commis
theguardian.com · 2016

Un policier se tient au coin d'une intersection achalandée, scrutant la foule avec sa caméra corporelle. Le flux est diffusé en direct dans le Real Time Crime Center au siège du département, où un logiciel spécialisé utilise la reconnaissance biométrique pour déterminer s'il y a des personnes d'intérêt dans la rue.

Les analystes de données alertent l'officier qu'un homme avec un score de menace anormalement élevé se trouve parmi la foule; l'agent s'approche de lui pour lui délivrer une «notification personnalisée», l'avertissant que la police ne tolérera pas un comportement criminel. Il est maintenant enregistré dans une base de données de délinquants potentiels.

Au-dessus de la tête, un avion léger équipé d'un réseau de caméras de surveillance survole la ville, surveillant en permanence des secteurs entiers, enregistrant tout ce qui se passe et permettant à la police d'arrêter, de rembobiner et de zoomer sur des personnes ou des véhicules spécifiques...

Rien de tout cela n'est de la techno-paranoïa de l'esprit de Philip K Dick ou de Black Mirror, mais plutôt des technologies existantes qui deviennent déjà des éléments standard du maintien de l'ordre.

La ville californienne de Fresno n'est que l'un des services de police aux États-Unis qui utilise déjà un logiciel appelé "Beware" pour générer des "scores de menace" sur un individu, une adresse ou une zone. Comme l'a rapporté le Washington Post en janvier, le logiciel fonctionne en traitant "des milliards de points de données, y compris des rapports d'arrestation, des registres de propriété, des bases de données commerciales, des recherches approfondies sur le Web et les publications sur les réseaux sociaux [de la personne]".

Une brochure pour Beware utilise un exemple hypothétique d'un ancien combattant diagnostiqué avec le SSPT, indiquant qu'ils prennent également en compte les données liées à la santé. Les scores sont codés par couleur afin que les agents puissent savoir en un coup d'œil quel est le niveau de menace : vert, jaune ou rouge.

La liste de chaleur générée par ordinateur de Chicago dressait le profil des criminels potentiels - essentiellement des suspects pour des crimes non encore commis

Il ne s'agit là que d'une des nombreuses nouvelles technologies facilitant la « police axée sur les données ». La collecte de grandes quantités de données à utiliser avec des programmes d'analyse permet à la police de recueillir des données à partir de n'importe quelle source et pour n'importe quelle raison.

Le Saint Graal est la « police prédictive »

"Bientôt, il sera possible et abordable pour le gouvernement d'enregistrer, de stocker et d'analyser presque tout ce que nous faisons", écrit la professeure de droit Elizabeth Joh dans Harvard Law & Policy Review. "La police s'appuiera sur les alertes générées par des programmes informatiques qui passent au crible les énormes quantités d'informations disponibles à la recherche de schémas d'activités suspectes."

Le Saint Graal de l'analyse alimentée par les données s'appelle la "police prédictive", qui utilise des modèles statistiques pour indiquer aux agents où le crime est susceptible de se produire et qui est susceptible de le commettre.

En février 2014, le service de police de Chicago (CPD) a attiré l'attention lorsque des agents ont rendu visite de manière préventive aux résidents sur une «liste de chaleur» générée par ordinateur, qui les indiquait comme susceptibles d'être impliqués dans un futur crime violent. Ces personnes n'avaient rien fait de mal, mais le CPD voulait leur faire savoir que des agents les surveilleraient.

Essentiellement, ils étaient déjà considérés comme des suspects pour des crimes non encore commis.

De Fresno à New York, et de Rio à Singapour, les analystes de données sont à la tête de salles de contrôle futuristes, alimentées par des systèmes tels que l'Intelligent Operations Center d'IBM et le City Cockpit de Siemens. Surveille les flux provenant de centaines, voire de milliers de caméras de surveillance dans la ville.

Est-ce vraiment la promesse d'une « smart city » ?

Ces analystes ont accès à des bases de données massives de dossiers de citoyens. Des capteurs installés dans la ville détectent la circulation des piétons et les activités suspectes. Les logiciels exécutent des analyses sur toutes ces données afin de générer des alertes et des « informations exploitables ».

Ni IBM ni le service de police de Chicago n'ont répondu à une demande de commentaire. Mais est-ce le nouveau modèle de la façon dont le maintien de l'ordre devrait être fait à l'ère des «villes intelligentes»?

Ces analyses peuvent être utilisées à bon escient, améliorant potentiellement la capacité de la police à prendre des décisions plus éclairées et moins biaisées concernant l'application de la loi. Mais ils sont souvent utilisés de manière douteuse et à des fins répressives. Il n'est pas clair - en particulier pour les outils d'analyse développés et vendus par des entreprises technologiques privées - comment ils fonctionnent exactement.

Quelles données utilisent-ils ? Comment pèsent-ils les variables ? Quelles valeurs et préjugés y sont codés ? Même les entreprises qui les développent ne peuvent pas répondre à toutes ces questions, et ce qu'elles savent ne peut être divulgué à cause des secrets commerciaux.

Ainsi, lorsque la police dit qu'elle utilise des techniques basées sur les données pour prendre des décisions plus intelligentes, ce qu'elle veut vraiment dire, c'est qu'elle s'appuie sur un logiciel qui crache des scores et des modèles, sans vraiment comprendre comment. Cela démontre une foi immense dans la véracité des analyses.

Les personnes concernées perdent leur droit à un traitement individualisé, car les systèmes les traitent comme une simple collecte de points de données

Il est absurde que la police ne sache pas quelles décisions, pondérations, valeurs et préjugés sont intégrés dans les analyses qu'elle utilise. Il obscurcit les facteurs et les décisions qui influencent le fonctionnement de la police - même

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd