Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 4346

Incidents associés

Incident 86010 Rapports
AI Camera Allegedly Misidentifies Dutch Motorist as Using Mobile Phone, Issuing €380 Fine

Loading...
Une erreur d'intelligence artificielle entraîne une amende de 400 $ pour un homme qui s'est gratté la tête
boingboing.net · 2024

Tim Hansen a été surpris de recevoir une amende de 400 dollars pour avoir utilisé son téléphone portable au volant alors qu'il se grattait simplement la tête. Comme on peut le voir ci-dessus, Hansen a été photographié par un système de caméra de police appelé Monocam qui a mal interprété la situation.

Par coïncidence, Hansen est un ingénieur qui travaille sur des systèmes d'apprentissage automatique qui analysent les images.

« Si un modèle doit prédire si quelque chose est « oui » ou « non » le cas, il peut bien sûr aussi arriver que le modèle soit erroné », selon un article de blog traduit écrit par Nippur à propos de son expérience. « Dans le cas de mon ticket, le modèle indiquait que je tenais un téléphone, alors que ce n'est pas le cas. On parle alors de faux positif. Un modèle parfait ne prédit que les vrais positifs et les vrais négatifs, mais une prédiction 100 % correcte est rare. »

"L'algorithme que nous avons utilisé, et celui de la police, peuvent suspecter la présence d'un téléphone car l'ensemble de données d'entraînement contient de nombreux exemples de personnes appelant avec un téléphone dans la main à côté de l'oreille", a-t-il écrit. "Il se peut bien que l'ensemble de données d'entraînement contienne peu ou pas de photos de personnes assises avec une main vide sur l'oreille. Dans ce cas, il devient moins important pour l'algorithme de savoir si un téléphone est réellement tenu dans la main, mais il suffit que la main soit proche de l'oreille. Pour améliorer cela, il faudrait ajouter davantage de photos où la main est vide."

De Oddity Central :

Hansen affirme qu'en raison des nombreuses variables qui peuvent influencer la décision d'un algorithme, un filtre humain est nécessaire pour minimiser le nombre de faux positifs. Seulement dans son cas, l'amende a été confirmée par un humain après analyse de la photo prise par l'appareil photo. ce n'est donc pas non plus une solution infaillible.

Le pilote néerlandais a contesté l'amende et s'attend à un résultat positif, mais il devra désormais attendre jusqu'à 26 semaines pour un verdict officiel.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd