Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 5191

Incidents associés

Incident 107515 Rapports
New Orleans Police Reportedly Used Real-Time Facial Recognition Alerts Supplied by Project NOLA Despite Local Ordinance

Loading...
Montrez-nous votre visage : la police de la Nouvelle-Orléans aurait reçu des alertes secrètes de reconnaissance faciale
theregister.com · 2025

Depuis début 2023, des caméras de reconnaissance faciale gérées par une association privée à but non lucratif scannent les visiteurs et les résidents de La Nouvelle-Orléans et alertent discrètement la police, contournant ainsi toute surveillance et enfreignant potentiellement la loi municipale, selon un nouveau rapport.

En 2022, la municipalité de la Nouvelle-Orléans a assoupli son interdiction d'utiliser la technologie de reconnaissance faciale. Cette technologie pourrait être utilisée pour enquêter sur des crimes violents, mais elle devait être vérifiée par un opérateur humain avant toute intervention.

Mais une enquête publiée lundi par le Washington Post a révélé qu'en l'espace d'un an, la police recevait discrètement des alertes continues de reconnaissance faciale en temps réel provenant d'un réseau de caméras privé. Ces alertes provenaient de caméras gérées par l'association à but non lucratif Project NOLA (https://www.projectnola.org/), qui gère un vaste réseau de surveillance financé par des fonds privés dans toute la ville, indique le rapport.

Project NOLA revendique l'accès à plus de 5 000 images de caméras dans la région de La Nouvelle-Orléans, dont plus de 200 sont équipées de reconnaissance faciale. Le système compare les visages à une base de données privée de plus de 30 000 personnes, constituée en partie à partir de photos d'identité policières. Lorsqu'une correspondance est détectée, les agents reçoivent une alerte sur leur téléphone portable indiquant l'identité et la localisation de la personne, selon le rapport.

La police était tenue d'informer le conseil municipal chaque fois qu'elle utilisait la technologie de reconnaissance faciale lors d'une enquête ou d'une arrestation, mais elle aurait omis de le faire. Dans plusieurs cas, les rapports de police ont omis toute mention de cette technologie, ce qui a suscité des inquiétudes quant au fait que les accusés n'aient pas eu la possibilité de contester le rôle de la reconnaissance faciale dans leur arrestation.

Alors que la surveillance s'intensifiait, le service de police a pris ses distances avec l'opération, affirmant dans un communiqué soigneusement rédigé qu'il « ne possède, ne dépend, ne gère et ne cautionne pas l'utilisation par ses membres de systèmes d'intelligence artificielle associés au vaste réseau de caméras de surveillance criminelle du Projet NOLA ».

« Jusqu'à présent, aucun service de police américain n'a accepté de risquer une réaction publique massive suite à l'utilisation d'un système de surveillance par reconnaissance faciale aussi audacieux », a déclaré Nathan Freed Wessler, directeur adjoint du projet Discours, vie privée et technologie de l'ACLU, dans un communiqué de presse.

En adoptant ce système – en secret, sans garanties et au péril de notre vie privée et de notre sécurité – la ville de La Nouvelle-Orléans a franchi une ligne rouge. C'est le propre des États de surveillance autoritaires et cela n'a pas sa place dans le système policier américain.

Les garanties existent pour une raison, comme l'ont déjà montré des affaires passées. En 2022, Randall Reid a été arrêté en Géorgie après que des policiers de Louisiane ont utilisé Clearview AI pour comparer la photo de son permis de conduire à une vidéo de surveillance d'un vol de sac à main, alors qu'il affirmait ne jamais être allé dans cet État. Il a passé six jours en prison, a encouru des milliers de dollars en frais juridiques et, en 2023, a intenté une action en justice fédérale pour arrestation injustifiée, fondée uniquement sur une reconnaissance faciale.

En 2020, la police de Détroit a fait la une des journaux après avoir faussement identifié et arrêté Robert Williams, soupçonné de vol à l'étalage. Williams a ensuite témoigné de cette expérience devant le Congrès. Un an plus tard, ce fut le tour de Lamya Robinson, alors âgée de 14 ans, qui a été expulsée d'une patinoire après avoir été faussement identifiée comme correspondant à 97 % à un fauteur de troubles connu.

Des cas comme ceux-ci ont contribué à alimenter la réaction du public et les efforts législatifs visant à contrôler la technologie de reconnaissance faciale. La Nouvelle-Orléans n'a pas fait exception, interdisant cette technologie en 2020. Mais la décision de 2022 a légèrement assoupli les règles pour permettre son utilisation via le Louisiana Fusion Center, qui agrège les données des polices de tout l'État. À l'époque, la police avait assuré aux autorités municipales que cette technologie ne serait utilisée qu'en dernier recours, après l'échec des autres méthodes d'identification. Le sergent David Barnes a témoigné que toute demande nécessitait l'approbation de la hiérarchie et que les correspondances devaient être examinées par plusieurs membres du personnel avant d'être traitées.

Le projet NOLA n'a pas été mentionné, et il est possible que la police ait cru que la réception d'alertes provenant d'un système privé les exemptait des règles. L'association à but non lucratif dispose certainement du matériel nécessaire à la surveillance en temps réel : son site web fait la promotion de caméras dotées d'IA, proposées gratuitement avec frais d'installation, et de forfaits de stockage cloud.

Un investissement de 300 $ par an permet d'obtenir un système de caméras de base, tandis que 2 200 $ couvrent un modèle 4K haut de gamme avec zoom 25x, vision nocturne STARVIS et IA qui suit automatiquement les personnes et les véhicules, émet des lumières clignotantes rouges et bleues et un projecteur lorsqu'elle détecte des intrus ou des activités suspectes. Les images sont généralement conservées pendant 30 jours, mais cette période a été prolongée à 90 jours dans certains districts suite à de récents changements de politique.

Les enquêteurs du Post ont commencé à interroger la police et la ville en février. Le 8 avril, la directrice du NOPD, Anne Kirkpatrick, aurait envoyé une note à l'ensemble du personnel, indiquant qu'un agent avait exprimé des inquiétudes concernant le système et suspendu son utilisation.

Elle a écrit qu'il avait été demandé au Projet NOLA de suspendre les alertes aux agents jusqu'à ce qu'elle soit « certaine que l'utilisation de l'application réponde à toutes les exigences de la loi et des politiques ».

Ni le NOPD ni le Projet NOLA n'avaient fait de commentaires au moment de la mise sous presse.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd