Incidents associés

Un Néerlandais a été condamné à une amende de 380 euros (400 dollars) après qu’une caméra alimentée par l’IA l’a surpris en train de parler au téléphone alors qu’il conduisait. Il prétend seulement qu’il se grattait la tête et que le système a fait une erreur.
En novembre dernier, Tim Hansen a reçu une amende pour avoir prétendument parlé au téléphone portable alors qu’il conduisait un mois plus tôt. Il a été choqué, principalement parce qu’il ne se souvenait pas d’avoir utilisé son téléphone au volant ce jour-là, alors il a décidé de vérifier la photo compromettante sur l’Agence centrale de recouvrement judiciaire. À première vue, il semble que Tim parle effectivement sur son téléphone, mais un examen plus approfondi révèle qu’il ne tient en fait rien dans sa main. Il se grattait simplement le côté de la tête et la caméra a confondu la position de sa main avec celle d’un téléphone. Ce qui est encore plus déconcertant, c’est que l’humain qui a vérifié la photo et validé son amende n’a pas non plus repéré le « faux positif ».
Hansen, qui travaille dans le domaine informatique et crée des algorithmes qui éditent et analysent les images, a expliqué, à partir de son expérience personnelle, comment fonctionne le système de caméras de police Monocam et pourquoi il peut faire des erreurs. Même s’il n’a pas pu tester Monocam lui-même, il a expliqué comment le système est conçu pour fonctionner et pourquoi il peut produire des faux positifs.
« Si un modèle doit prédire si quelque chose est « oui » ou « non » le cas, il peut bien sûr aussi arriver que le modèle soit erroné », a écrit Tim. « Dans le cas de mon ticket, le modèle indiquait que je tenais un téléphone, alors que ce n’est pas le cas. On parle alors de faux positif. Un modèle parfait ne prédit que les vrais positifs et les vrais négatifs, mais une prédiction correcte à 100 % est rare. »
Le spécialiste informatique a expliqué que les systèmes comme Monocam doivent être entraînés sur un grand ensemble d’images divisé en deux ou trois groupes : un ensemble d’entraînement, un ensemble de validation et un ensemble de test. Le premier ensemble sert à apprendre à l’algorithme quels objets se trouvent sur quelles images et quelles propriétés (couleurs, lignes, etc.) leur appartiennent, le deuxième, à optimiser un certain nombre d’hyperparamètres de l’algorithme, et le troisième à tester le bon fonctionnement du système.
« L’algorithme que nous avons utilisé, et celui de la police, peuvent soupçonner la présence d’un téléphone car l’ensemble de données d’entraînement contient de nombreux exemples de personnes appelant avec un téléphone dans la main à côté de l’oreille », a déclaré Tim. « Il se peut très bien que l’ensemble de données d’entraînement ne contienne que peu ou pas de photos de personnes assises avec une main vide sur l’oreille. Dans ce cas, il devient moins important pour l’algorithme de savoir si un téléphone est réellement tenu dans la main, mais il suffit que la main soit proche de l’oreille. Pour améliorer cela, il faudrait ajouter davantage de photos où la main est vide. »
Hansen affirme qu’en raison des nombreuses variables qui peuvent influencer la décision d’un algorithme, un filtre humain est nécessaire pour minimiser le nombre de faux positifs. Seulement dans son cas, l’amende a été confirmée par un humain après avoir analysé la photo prise par l’appareil photo. ce n’est donc pas non plus une solution infaillible.
Le conducteur néerlandais a contesté l’amende et espère une issue positive, mais il devra désormais attendre jusqu’à 26 semaines pour un verdict officiel. Son cas a fait le tour des Pays-Bas et des pays voisins comme la Belgique, où certaines institutions demandent l’installation de caméras capables de détecter l’utilisation du téléphone portable au volant, mais l’histoire de Tims prouve qu’elles sont loin d’être fiables à 100 %.