Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 6772

Loading...
Le d�épartement de police de Heber City teste un logiciel d'IA
parkrecord.com · 2025

Fin octobre, le chef de la police de Heber City, Parker Sever, s'est présenté devant le conseil municipal pour leur annoncer qu'un agent s'était transformé en grenouille.

Du moins, c'est ce que lui a raconté son gendre, qui travaille au sein du service de police de West Jordan. Ce dernier avait récemment mis en place un logiciel d'intelligence artificielle générant des rapports de police à partir des images des caméras corporelles. Les détails ne sont pas toujours exacts à 100 %, c'est pourquoi les agents les vérifient.

« J'ai lu le rapport et je me suis dit : "Waouh, on dirait vraiment qu'un agent l'a écrit", se souvient Sever. « Mais à un moment donné, il était écrit : "Et puis l'agent s'est transformé en grenouille, et un livre magique est apparu et a commencé à exaucer des vœux."… C'était parce qu'ils regardaient "Harry Potter" en fond sonore. Le logiciel a capté le bruit de la télévision et l'a ajouté au rapport. »

Le service de police de Heber City teste actuellement un logiciel similaire.

Les candidats sont Code Four, une start-up lancée en début d'année par deux jeunes de 19 ans ayant quitté le MIT, et Draft One, le logiciel du géant des technologies policières Axon. Certains agents en semaine ont accès à Draft One, tandis que ceux du week-end utilisent Code Four.

Les périodes d'essai gratuites de deux mois pour ces programmes expirent en janvier.

L'argument de vente principal d'un logiciel d'IA générant des rapports de police est le gain de temps.

Axon et Code Four citent des statistiques similaires selon lesquelles les policiers consacrent jusqu'à 40 % de leur temps à la rédaction de rapports.

« Je pense que la plupart des citoyens souhaitent voir nos policiers sur le terrain, et non au bureau », a déclaré Sever.

Ce « tout nouveau moteur »

Josh Weishar, sergent de police qui utilisait exclusivement Draft One, a témoigné du gain de temps le 10 novembre, environ une semaine après le lancement du programme pilote.

Weishar a constaté que les rapports de police générés par l'IA étaient généralement plus détaillés que ceux qu'il aurait rédigés lui-même.

« Un agent se basera sur les informations essentielles », a-t-il déclaré. « Je pense qu'on obtient plus d'informations, ou du moins des informations beaucoup plus détaillées, qu'en rédigeant soi-même le rapport, car on ne retient que les faits clés au lieu de tous les détails fournis par l'IA. »

C'est l'une des raisons pour lesquelles le logiciel a séduit la police de Heber City : un agent pourrait être moins précis s'il a « dix rapports de retard », a expliqué Sever, mais l'IA peut toujours inclure le même niveau de détail.

Draft One et Code Four permettent tous deux à l'utilisateur de personnaliser le niveau de détail inclus dans le rapport par le logiciel d'IA, allant de simples résumés à des comptes rendus détaillés, et peuvent générer des rapports à partir d'interactions en anglais et en espagnol.

La principale différence entre les deux logiciels est que Draft One crée un rapport basé sur l'audio de la caméra corporelle, tandis que Code Four utilise l'audio et la vidéo.

Les rapports de fin de service, qui offrent une vue d'ensemble des incidents survenus pendant toute la durée du service, continueront d'être rédigés exclusivement par des humains.

« La plupart de nos agents sont impressionnés par Draft One, car c'est une technologie totalement nouvelle et innovante pour nous », a déclaré Weishar. « C'est comme une voiture flambant neuve avec toutes les options. C'est incroyable de pouvoir appuyer sur un bouton et d'obtenir toutes les informations sur l'affaire traitée, ainsi qu'un rapport de police assez complet à modifier. »

Fonctionnement de Draft One

Lors d'une démonstration de Draft One, Weishar a montré que le rapport préliminaire est truffé d'invites demandant à l'agent de fournir des détails supplémentaires sur certains éléments, comme l'apparence d'un suspect ou l'état des lieux du crime. Ces invites, qu'il faut supprimer ou modifier pour continuer, sont conçues pour inciter l'agent à examiner le rapport en détail.

Une fois les modifications terminées et le rapport approuvé, l'agent le copie et le colle dans la base de données du service de police et le soumet comme n'importe quel autre rapport.

Le rapport original généré par Draft One n'est pas conservé. Cependant, le logiciel crée une « piste d'audit numérique inaltérable » qui enregistre qui a utilisé l'outil, quand et quelles preuves étaient concernées selon le site web d'Axon.

Le rapport se termine par une mention activée par défaut : « Je reconnais que ce rapport a été généré à l'aide de Draft One par Axon. Je reconnais également avoir examiné le rapport en détail, y avoir apporté les modifications nécessaires et le considérer comme une représentation fidèle de mes souvenirs des événements rapportés. Si nécessaire, je suis disposé(e) à témoigner de l'exactitude de ce rapport. »

Cette mention peut être personnalisée ou désactivée.

Comparaison des prix

Si le service de police choisit de continuer à utiliser Draft One, cela coûtera environ 30 000 $ par an aux contribuables, selon Sever.

George Cheng, cofondateur de Code Four, a critiqué Axon en raison de ses options supplémentaires, telles que le stockage et le traitement vidéo additionnels. Il a estimé que ces options pouvaient représenter un coût de 400 $ par agent et par mois. Code Four est nettement moins cher, à 30 $ par agent et par mois. Sever a estimé que cela coûterait à la ville de Heber entre 6 000 $ et 8 000 $ par an.

Avant Thanksgiving, Cheng s'est rendu dans les commissariats de police de Taylorsville et de Heber City pour présenter le fonctionnement du logiciel. Il a également effectué des visites similaires dans les commissariats de Spanish Fork, South Jordan, Kaysville et Draper.

Sever a indiqué qu'il ne pouvait autoriser les dépenses que jusqu'à un certain montant sans l'approbation du conseil municipal de Heber City. L'achat de Draft One, pour environ 30 000 $ par an, nécessiterait cette autorisation. Ce n'est pas le cas pour Code Four, dont le coût annuel se situe entre 6 000 $ et 8 000 $.

En décembre, la police de Heber City privilégiait Code Four en raison de son coût inférieur et de sa capacité à générer des rapports plus complets.

Un autre cas

Le service de police de Heber City n'est pas le seul service de police de la région de Wasatch Back à tester un logiciel d'IA.

Le bureau du shérif du comté de Summit a récemment mené à bien un programme pilote de 90 jours avec la version Draft One, auprès de six agents de patrouille. Le service de police de Park City et le bureau du shérif du comté de Wasatch n'ont encore mis en œuvre aucun logiciel d'IA.

Le sergent Skyler Talbot, du bureau du shérif, a déclaré que son point de vue sur l'IA dans le maintien de l'ordre oscillait entre prudence et optimisme.

« Il est important de reconnaître les capacités de l'IA et son fort potentiel d'amélioration de l'efficacité opérationnelle », a-t-il affirmé. « Je pense qu'il est essentiel de rester à la pointe de cette technologie. Cela dit… je ne veux pas dire qu'il faut être sceptique, mais il est clair que nous devons faire preuve de prudence. »

Talbot a précisé que Draft One n'avait pas été utilisé pour rédiger les rapports relatifs aux « incidents majeurs ou à tout incident susceptible d'entraîner des poursuites pour crime » durant le programme pilote.

Le 25 novembre, Talbot a informé le journal The Park Record que le bureau du shérif du comté de Summit avait décidé de ne pas poursuivre l'utilisation de Draft One au-delà de la période d'essai gratuite.

Il a expliqué que Draft One dispose d'un paramètre administratif qui oblige le logiciel d'IA à insérer des erreurs manifestes dans chaque rapport.

« Concrètement, cela incitait l'adjoint à relire attentivement le rapport, à en vérifier l'exactitude et à apporter les corrections nécessaires avant de pouvoir continuer », a déclaré Talbot. En résumé, le gain de temps n'était pas aussi important qu'escompté.

L'activation de ce paramètre était indispensable pour que le bureau du shérif du comté de Summit puisse utiliser Draft One, afin de garantir que les adjoints lisent attentivement le brouillon du rapport et en vérifient l'exactitude avant de le soumettre, a expliqué Talbot.

Parallèlement, le service de police de Heber City n'a pas activé ce paramètre. Sever a déclaré qu'il n'était pas au courant de l'existence de ce paramètre et qu'il devait se renseigner sur son utilité.

Talbot a déclaré qu'il n'était pas « financièrement responsable » pour le bureau du shérif du comté de Summit d'utiliser les fonds publics pour ce programme, tout en précisant que cette position pourrait évoluer d'ici quelques années ou quelques mois, au gré des développements du secteur.

« Encore une fois, c'est utile. C'est une excellente technologie compte tenu de la taille de notre service et du volume d'appels que nous recevons », a-t-il affirmé. « Pour l'instant, il est tout simplement plus logique de continuer à travailler comme avant. »

Problèmes d'éthique

L'optimisme n'est pas général quant aux rapports de police rédigés par l'IA.

David Ferguson, directeur exécutif de l'Association des avocats de la défense pénale de l'Utah, a détaillé certains des écueils potentiels de tels logiciels d'IA. Il a souligné que les rapports de police sont essentiels pour les avocats de la défense, car ils peuvent révéler d'éventuels préjugés de la part de leur auteur.

Mais comme l'IA générative peut « halluciner », se tromper sur les détails ou les inventer de toutes pièces, il serait « contraire à l'éthique » pour un avocat de la défense de prendre pour argent comptant un rapport de police rédigé par une IA. Cela les amènerait à visionner les enregistrements des caméras corporelles pour vérifier des détails de base dans un nombre croissant d'affaires, a déclaré Ferguson. Cela pourrait alourdir la charge de travail des avocats de la défense, en particulier celle des avocats commis d'office, déjà surchargés.

Les procureurs, quant à eux, s'appuient généralement sur les preuves fournies par la police, notamment les rapports de police.

Un rapport généré par un logiciel d'IA peut également altérer les souvenirs d'un agent concernant un incident. Si un agent ayant utilisé une IA générative pour rédiger un rapport témoignait devant un tribunal, son témoignage pourrait se baser sur les observations de l'IA et non sur les siennes.

« Lorsque nous comparons nos notes, nous avons tendance à intégrer les observations d'une autre personne à notre propre mémoire », a expliqué Ferguson. On pourrait dire la même chose des observations d'un logiciel d'IA.

« Si le récit se limite aux images enregistrées par la caméra corporelle, cela devient la vérité établie sur les faits… À un moment donné, pourquoi faire témoigner des policiers ? » a déclaré Ferguson. « Il est profondément choquant, d'une certaine manière, d'imaginer un système où des êtres humains sont jugés sur la base de caméras et de ce qu'un logiciel juge pertinent parmi les images captées. »

Ce problème peut s'avérer particulièrement préoccupant si la transcription peine à comprendre un accent ou le sens de l'argot. D'autres difficultés pourraient surgir avec les logiciels vidéo d'IA. Ferguson a expliqué que l'IA peut avoir « des difficultés à interpréter et à comprendre les visages des minorités », et que les observations qu'elle attribue sur les actions, le langage corporel, le comportement et les expressions faciales d'une personne pourraient être mal interprétées, notamment au sein des communautés minoritaires.

Selon Axon, les études sur les biais raciaux dans la première version du procès « n'ont pas permis de détecter de différence statistiquement significative en termes d'exhaustivité, de cohérence ou de gravité du choix des mots entre les groupes ethniques ». Ces études ont évalué si les transcriptions générées par l'IA différaient selon l'origine ethnique.

En avril 2024, l'entreprise a annoncé la publication d'un rapport plus détaillé sur les études. Cependant, le Park Record n'a pas pu trouver d'informations supplémentaires concernant les études sur les biais raciaux.

Le manque de transparence était une autre source d'inquiétude pour Ferguson, car les entreprises privées ne sont pas soumises aux mêmes lois sur la transparence, telles que la loi sur la liberté d'information et la loi sur la protection des données personnelles, que les organismes gouvernementaux. Cela pourrait compliquer la tâche des avocats de la défense ou du public souhaitant examiner le logiciel en profondeur pour mieux comprendre son fonctionnement.

Il doutait également que les rapports de police rédigés par l'IA soient correctement relus par les agents avant leur approbation.

« Le problème n'est pas l'agent capable de condenser une heure de travail en 10 minutes. Le problème, c'est l'agent qui se dit : "Je peux faire encore mieux. Je peux condenser ça en 30 secondes."… Il faut être aveugle pour penser que cela ne deviendra pas la norme chez certains agents, voire une pratique courante dans certains services », a déclaré Ferguson.

Mais Sever est convaincu que tout rapport erroné sera détecté lors du processus administratif.

« Une fois qu'un policier a signé un rapport de police, celui-ci est transmis à un supérieur. Ce dernier est tenu de vérifier l'exhaustivité et l'exactitude du rapport avant de le valider », explique-t-il. « Ensuite, notre service des archives reçoit le rapport… et bien souvent, c'est lui qui signale les erreurs et les points à corriger. »

Un agent qui omettrait systématiquement de vérifier les rapports générés par l'IA avant de les soumettre serait sanctionné disciplinairement et pourrait être licencié.

Perspectives d'avenir

Sever précise que la seule raison pour laquelle le service pourrait ne pas mettre en œuvre immédiatement l'un de ces programmes est son incompatibilité avec le budget actuel.

« La présence d'un agent au poste n'a aucun impact sur la fluidité du trafic. Il n'est pas disponible pour intervenir rapidement en cas d'appel », conclut Sever. « Quand on les sort du commissariat, qu'on les met sur le terrain, c'est là que le public les voit, et c'est à ce moment-là que les comportements changent positivement. »

Les retours des agents semblent également positifs.

« Un de mes sergents, qui n'est pas très branché informatique, est vraiment enthousiaste », a déclaré Sever. « Il m'a dit : “Je suis rentré au commissariat. Ce rapport m'aurait pris une heure, et je l'ai fait en huit minutes.” »

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd