Incidents associés

Dans un monde de plus en plus dépendant de l’IA, un conducteur néerlandais a appris à ses dépens que même la technologie de pointe n’est pas à l’abri de faire des erreurs coûteuses. L’expert informatique Tim Hansen, des Pays-Bas, a reçu une amende de 400 $ ou 380 euros en novembre 2023 après qu’un système de caméra de circulation alimenté par l’IA a cru à tort qu’il utilisait son téléphone portable au volant. La vérité ? Il se grattait simplement la tête.
L’incident : une mauvaise identification par l’IA
Il a été surpris lorsque l’amende est arrivée par courrier, car il n’avait pas utilisé son téléphone ce jour-là. Le système de caméra monophotographique a capturé des conducteurs en train d’utiliser leur téléphone, mais il a trafiqué le grattement innocent de la tête de Hansen en une infraction à l’utilisation du téléphone. En examinant les preuves photographiques, Hansen a vu que sa main était près de son oreille mais ne tenait pas de téléphone.
Avec une erreur aussi flagrante, ni le système d’IA qui a traité l’amende ni l’examinateur humain qui l’a traitée n’ont pu reconnaître qu’il n’y avait pas de téléphone en vue. Le résultat a été une lourde amende contre Hansen pour une infraction qu'il n'a pas commise.
Comment fonctionnent les systèmes d'IA comme Monocam
Voici comment fonctionne le système d'IA Monocam : il analyse essentiellement les photos des conducteurs à la recherche d'utilisation du téléphone. fonctionne en analysant les images des conducteurs et en détectant l'utilisation du téléphone. Ces systèmes sont formés sur de vastes ensembles de données contenant de nombreux exemples de conducteurs utilisant des téléphones portables, ce qui aide l'IA à identifier quand un individu pourrait enfreindre le code de la route. Cependant, selon Hansen, l'algorithme en question a probablement commis une erreur car il n'a pas pu séparer deux actions différentes - des gestes de même poids, comme se gratter la tête et tenir un téléphone.
En tant que professionnel de l'informatique qui a travaillé sur des algorithmes de reconnaissance d'images, Hansen a déclaré que les nuances du fonctionnement de ces systèmes résident dans le fait qu'ils sont « formés » à ce à quoi ressemble l'utilisation du téléphone par le biais d'ensembles de formation, de validation et de test ; cependant, lorsque ces ensembles de données de formation sont petits ou non représentatifs, cela conduit à des erreurs comme celle de son expérience. Dans ce cas, l’IA a probablement signalé la position de sa main en fonction d’un modèle qu’elle a appris à partir d’autres exemples.
Cette situation a vraiment mis en lumière l’incapacité de l’IA à être utilisée uniquement pour faire respecter la loi. Bien qu’efficaces, les systèmes d’IA ne sont pas parfaits et ne contribuent qu’à minimiser les erreurs humaines. L’expérience de Hansen stipule bien qu’il doit y avoir plus de surveillance humaine avec les systèmes automatisés pour réduire les faux positifs. Bien qu’il s’agisse d’une amende confirmée par un examinateur humain, la surveillance a clairement été insuffisante dans ce cas.
L’IA est-elle prête à être déployée dans les forces de l’ordre ?
Le cas de Hansen n’est pas isolé. Alors que de plus en plus de gouvernements et d’institutions commencent à utiliser l’IA dans le cadre de l’application de la loi, des histoires comme la sienne ont soulevé des questions sur les risques réels et les responsabilités supplémentaires qui accompagnent le déploiement de l’intelligence artificielle. Cela met également en lumière un besoin urgent d’ensembles de données plus précis et d’algorithmes mieux conçus qui pourraient gérer certaines des subtilités du comportement humain.
Le Néerlandais a depuis interjeté appel de l’amende, qui pourrait prendre jusqu’à 26 semaines pour recevoir un verdict officiel. En attendant, son histoire constitue un avertissement quant aux limites de l’IA dans les systèmes publics. La technologie peut améliorer la précision et l’efficacité, mais des erreurs comme celle-ci soulèvent également des questions de responsabilité et d’équité dans les cas où les systèmes d’IA tombent en panne.
Comment équilibrer l’IA et le jugement humain
L’affaire, dans son essence, exige une meilleure formation de l’IA et une intégration étroite entre les systèmes pilotés par machine et l’intervention humaine. Si l’IA peut traiter des données volumineuses en moins de temps, la technologie ne parvient toujours pas à différencier les légères variations de comportement, comme se gratter la tête et passer un appel téléphonique. Ce qu’il faut, c’est un équilibre subtil entre l’efficacité de l’IA et le jugement humain pour garantir que la technologie serve la justice et ne la trompe pas.
Pour l’instant, l’amende vertigineuse infligée à Tim Hansen est un rappel brutal du potentiel débordant de l’IA et de ses pièges dans l’application de la loi moderne.