Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 1272

Loading...
Qui est responsable lorsqu'une voiture autonome tombe en panne ?
scientificamerican.com · 2016

La Saint-Valentin a été une déception à Mountain View, en Californie. Pour la première fois, l'une des voitures autonomes de Google, un SUV Lexus modifié, a provoqué un accident. Détectant un tas de sacs de sable entourant un égout pluvial sur son chemin, la voiture s'est déplacée vers la voie centrale pour éviter le danger. Trois secondes plus tard, il est entré en collision avec le côté d'un bus. Selon le rapport d'accident, le chauffeur d'essai de la Lexus a vu le bus mais a supposé que le chauffeur du bus ralentirait pour permettre au SUV de continuer.

Ce n'était pas le premier accident du projet, mais c'était le premier causé en partie par une erreur non humaine (la plupart des incidents impliquent que les voitures sans conducteur se font emboutir par des conducteurs humains qui ne font pas attention aux feux de circulation). L'épisode met en lumière une zone grise toujours imminente dans notre avenir robotique : qui est responsable - et paie les dommages - lorsqu'un véhicule autonome tombe en panne ?

Le sentiment d'urgence de trouver des réponses claires à cette question et à d'autres questions sur les véhicules autonomes grandit. Les constructeurs automobiles et les experts politiques craignent qu'un manque de réglementation nationale cohérente rende le déploiement de ces voitures dans les 50 États presque impossible. Pour stimuler les progrès, l'administration Obama a demandé au ministère des Transports de proposer des tests nationaux complets et des normes de sécurité d'ici cet été. Mais en ce qui concerne la question de la responsabilité et de la responsabilité, nous pourrions déjà nous concentrer sur une réponse, qui indique un changement dans la façon dont la cause première des dommages est évaluée : lorsqu'un conducteur informatisé remplace un conducteur humain, les experts disent que le les entreprises à l'origine des logiciels et du matériel font partie de la chaîne de responsabilité légale, et non du propriétaire de la voiture ou de la compagnie d'assurance de la personne. Finalement, et inévitablement, les constructeurs automobiles devront prendre le blâme.

Les pionniers de la conduite autonome, en fait, commencent à faire le changement. En octobre dernier, Volvo a déclaré qu'il paierait pour toute blessure ou tout dommage matériel causé par son système de pilote automatique IntelliSafe entièrement autonome, qui devrait faire ses débuts dans les voitures de l'entreprise d'ici 2020. L'idée derrière la décision, explique Erik Coelingh, directeur technique senior de Volvo pour les technologies de sécurité et d'assistance au conducteur, est que le pilote automatique comprendra tellement de systèmes redondants et de secours (caméras, radars, batteries, freins, ordinateurs, actionneurs de direction en double) qu'un conducteur humain n'aura jamais besoin d'intervenir et ne pourra donc pas être en faute. "Quel que soit le système défaillant, la voiture doit toujours avoir la capacité de s'arrêter en toute sécurité", dit-il.

La prolifération de véhicules déjà en circulation avec une automatisation partielle montre à quelle vitesse le scénario décrit par Coelingh se réalise. Un nombre croissant de voitures sont équipées de systèmes de freinage en cas de collision imminente, qui s'appuient sur l'optique pour détecter les impacts frontaux potentiels et appliquer les freins de manière proactive. Audi, BMW et d'autres ont développé des voitures qui peuvent se garer en parallèle. Et plus tard cette année, Volvo déploiera la première fonction de conduite semi-autonome sur autoroute aux États-Unis, appelée Pilot Assist, sur la berline S90 2017. Le système utilise un ordinateur monté sur le pare-brise équipé d'une caméra et d'un radar pour accélérer, décélérer, éviter les obstacles et rester dans une voie automatiquement à des vitesses allant jusqu'à 80 miles par heure.

Des fonctionnalités telles que Pilot Assist existent dans ce que Bryant Walker Smith, expert en politique technologique et professeur adjoint à l'Université de Caroline du Sud, appelle le "milieu mou de l'automatisation", où les constructeurs automobiles exigent toujours que les conducteurs humains prêtent attention. « La frontière entre l'humain et la machine n'est pas toujours claire », dit-il.

Pour le moment, certains constructeurs automobiles visent à garder les conducteurs humains clairement du côté responsable de cette ligne. Le prochain Super Cruise de General Motors, qui sera lancé sur une Cadillac en 2017 et est similaire à Pilot Assist, comporte des mises en garde selon lesquelles le conducteur humain doit rester alerte et prêt à prendre le contrôle de la direction si la visibilité baisse ou si le temps change. Avec Pilot Assist, Volvo impose la même responsabilité au conducteur ; des capteurs tactiles sur le volant garantissent que la personne reste engagée.

Au moment où la conduite entièrement autonome deviendra une réalité, cependant, les constructeurs automobiles tels que Volvo, Mercedes et Google sont convaincus qu'ils disposeront de ces technologies - et bien d'autres - si bien intégrées qu'elles pourront retirer le conducteur de l'opération et image de la responsabilité presque entièrement. De plus, une étude de la Brookings Institution de 2014 a révélé que la loi actuelle sur la responsabilité du fait des produits couvrait déjà le changement, de sorte que les États-Unis n'auraient peut-être pas besoin de réécrire les lois pour que l'automatisation continue d'avancer.

C'est un pari relativement sûr pour les constructeurs automobiles sans conducteur de dire qu'ils paieront la facture pour tout, des cintreuses d'ailes aux accidents violents, car la semi-autonomie montre que les conducteurs d'ordinateurs sont probablement plus sûrs que les humains. Les données de l'Insurance Institute for Highway Safety, par exemple, ont révélé que le freinage anticollision peut réduire de 40 % le nombre total de collisions par l'arrière. Et Coelingh de Volvo note qu'une étude de la version européenne de Pilot Assist a révélé que l'ordinateur maintient des distances de suivi plus sûres et a moins de

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd