Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4348

Incidents associés

Incident 86010 Rapports
AI Camera Allegedly Misidentifies Dutch Motorist as Using Mobile Phone, Issuing €380 Fine

Loading...
Comment une caméra de circulation IA a infligé une amende de 400 $ à un conducteur qui s'est simplement gratté la tête
ai.gopubby.com · 2024

Dans un monde de plus en plus dépendant de l’IA, un conducteur néerlandais a appris à ses dépens que même la technologie de pointe n’est pas à l’abri de faire des erreurs coûteuses. L’expert informatique Tim Hansen, des Pays-Bas, a reçu une amende de 400 $ ou 380 euros en novembre 2023 après qu’un système de caméra de circulation alimenté par l’IA a cru à tort qu’il utilisait son téléphone portable au volant. La vérité ? Il se grattait simplement la tête.

L’incident : une mauvaise identification par l’IA

Il a été surpris lorsque l’amende est arrivée par courrier, car il n’avait pas utilisé son téléphone ce jour-là. Le système de caméra monophotographique a capturé des conducteurs en train d’utiliser leur téléphone, mais il a trafiqué le grattement innocent de la tête de Hansen en une infraction à l’utilisation du téléphone. En examinant les preuves photographiques, Hansen a vu que sa main était près de son oreille mais ne tenait pas de téléphone.

Avec une erreur aussi flagrante, ni le système d’IA qui a traité l’amende ni l’examinateur humain qui l’a traitée n’ont pu reconnaître qu’il n’y avait pas de téléphone en vue. Le résultat a été une lourde amende contre Hansen pour une infraction qu'il n'a pas commise.

Comment fonctionnent les systèmes d'IA comme Monocam

Voici comment fonctionne le système d'IA Monocam : il analyse essentiellement les photos des conducteurs à la recherche d'utilisation du téléphone. fonctionne en analysant les images des conducteurs et en détectant l'utilisation du téléphone. Ces systèmes sont formés sur de vastes ensembles de données contenant de nombreux exemples de conducteurs utilisant des téléphones portables, ce qui aide l'IA à identifier quand un individu pourrait enfreindre le code de la route. Cependant, selon Hansen, l'algorithme en question a probablement commis une erreur car il n'a pas pu séparer deux actions différentes - des gestes de même poids, comme se gratter la tête et tenir un téléphone.

En tant que professionnel de l'informatique qui a travaillé sur des algorithmes de reconnaissance d'images, Hansen a déclaré que les nuances du fonctionnement de ces systèmes résident dans le fait qu'ils sont « formés » à ce à quoi ressemble l'utilisation du téléphone par le biais d'ensembles de formation, de validation et de test ; cependant, lorsque ces ensembles de données de formation sont petits ou non représentatifs, cela conduit à des erreurs comme celle de son expérience. Dans ce cas, l’IA a probablement signalé la position de sa main en fonction d’un modèle qu’elle a appris à partir d’autres exemples.

Cette situation a vraiment mis en lumière l’incapacité de l’IA à être utilisée uniquement pour faire respecter la loi. Bien qu’efficaces, les systèmes d’IA ne sont pas parfaits et ne contribuent qu’à minimiser les erreurs humaines. L’expérience de Hansen stipule bien qu’il doit y avoir plus de surveillance humaine avec les systèmes automatisés pour réduire les faux positifs. Bien qu’il s’agisse d’une amende confirmée par un examinateur humain, la surveillance a clairement été insuffisante dans ce cas.

L’IA est-elle prête à être déployée dans les forces de l’ordre ?

Le cas de Hansen n’est pas isolé. Alors que de plus en plus de gouvernements et d’institutions commencent à utiliser l’IA dans le cadre de l’application de la loi, des histoires comme la sienne ont soulevé des questions sur les risques réels et les responsabilités supplémentaires qui accompagnent le déploiement de l’intelligence artificielle. Cela met également en lumière un besoin urgent d’ensembles de données plus précis et d’algorithmes mieux conçus qui pourraient gérer certaines des subtilités du comportement humain.

Le Néerlandais a depuis interjeté appel de l’amende, qui pourrait prendre jusqu’à 26 semaines pour recevoir un verdict officiel. En attendant, son histoire constitue un avertissement quant aux limites de l’IA dans les systèmes publics. La technologie peut améliorer la précision et l’efficacité, mais des erreurs comme celle-ci soulèvent également des questions de responsabilité et d’équité dans les cas où les systèmes d’IA tombent en panne.

Comment équilibrer l’IA et le jugement humain

L’affaire, dans son essence, exige une meilleure formation de l’IA et une intégration étroite entre les systèmes pilotés par machine et l’intervention humaine. Si l’IA peut traiter des données volumineuses en moins de temps, la technologie ne parvient toujours pas à différencier les légères variations de comportement, comme se gratter la tête et passer un appel téléphonique. Ce qu’il faut, c’est un équilibre subtil entre l’efficacité de l’IA et le jugement humain pour garantir que la technologie serve la justice et ne la trompe pas.

Pour l’instant, l’amende vertigineuse infligée à Tim Hansen est un rappel brutal du potentiel débordant de l’IA et de ses pièges dans l’application de la loi moderne.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd