Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 202

Incidents associés

Incident 2022 Rapports
A Collection of Tesla Autopilot-Involved Crashes

Loading...
Qui est à blâmer quand les voitures robots tuent ?
trustedreviews.com · 2018

Nous sommes en 2025. Votre voiture sans conducteur vient de s'écraser dans un arbre à 55 mph parce que son ordinateur intégré valorisait la vie d'un piéton au-dessus de la vôtre. Vos blessures sont le résultat de quelques lignes de code qui ont été piratées par un programmeur de logiciels de 26 ans dans la région de la baie de San Francisco à l'époque grisante de 2018. Alors que vous attendez un drone paramédical, saignant par le bord de la route, vous vous demandez – où tout cela a-t-il mal tourné ?

Le scénario ci-dessus peut sembler fantaisiste, mais la mort par une voiture sans conducteur n'est pas seulement inévitable - elle se produit déjà. Plus récemment, une voiture autonome Uber a percuté et tué un piéton en Arizona, tandis qu'en mai 2017, un logiciel semi-autonome a échoué de manière tout aussi tragique lorsque la Tesla Model S de Joshua Brown a roulé sous la remorque d'un camion à 18 roues sur un autoroute en mode Pilote automatique.

Tesla admet que les capteurs de son système n'ont pas réussi à distinguer la remorque blanche d'un ciel clair, entraînant la mort prématurée du Floridien de 40 ans. Mais Tesla dit également que les conducteurs doivent garder les mains sur le volant pour éviter que de tels accidents ne se produisent, même lorsque le pilote automatique est activé. Malgré son nom, c'est un système semi-autonome.

Uber, en revanche, n'est peut-être pas en faute, selon un rapport de police préliminaire, qui rejette la faute sur la victime.

Il est triste de constater que ces tragédies ne sont qu'un avant-goût de ce qui va arriver. En écrivant cet article, j'ai réalisé à quel point nous étions terriblement mal préparés pour l'avenir sans conducteur - attendu dès 2020. Ce qui est plus inquiétant, c'est que cet avenir se répand déjà dans notre présent, grâce à des systèmes semi-autonomes comme le pilote automatique de Tesla et Les tests de voitures autonomes d'Uber (maintenant interrompus).

La technologie de demain est là aujourd'hui, et avec des problèmes tels que l'éthique et la responsabilité désormais impossibles à éviter, les constructeurs automobiles ne peuvent pas se permettre de ne pas être prêts.

Que se passe-t-il lorsqu'une voiture sans conducteur provoque un accident et, pire encore, tue quelqu'un ?

Comprendre la mort par ordinateur

Pour lutter contre la responsabilité, nous devons nous demander comment et pourquoi une voiture sans conducteur pourrait tuer quelqu'un. Contrairement aux humains, les voitures ne souffrent pas de fatigue, elles n'éprouvent pas de rage au volant et elles ne peuvent pas avaler six pintes de bière avant de prendre l'autoroute - mais elles peuvent toujours faire des erreurs.

La Model S de Tesla est dotée de la technologie de pilote automatique semi-autonome

On peut dire que la cause la plus probable de "mort par voiture sans conducteur" serait si les capteurs d'une voiture interprétaient incorrectement les données, ce qui obligerait l'ordinateur à prendre une mauvaise décision de conduite. Alors que chaque incident, mortel ou autre, entraînera des correctifs et des améliorations, retracer la responsabilité serait un voyage juridique long et ardu. J'y reviendrai plus tard.

La deuxième cause possible de décès par voiture sans conducteur est beaucoup plus difficile à résoudre, car tout est question d'éthique.

Imaginez ce scénario : vous roulez dans une voiture sans conducteur avec votre conjoint, voyageant le long d'une route B à voie unique bordée d'arbres. Il existe des dizaines et des dizaines de routes B comme celle-ci au Royaume-Uni. La voiture roule à 55 mph, ce qui est inférieur à la limite de vitesse nationale de 60 mph sur cette route.

Un virage à l'aveugle approche, votre voiture ralentit donc à une vitesse plus raisonnable de 40 mph. En parcourant le virage, vous voyez qu'un enfant s'est précipité sur la route depuis un sentier public caché dans les arbres. Sa mère a paniqué et l'a suivi, et maintenant ils sont tous les deux au milieu de la route. C'est une journée venteuse et votre voiture est électrique, donc ils ne vous ont pas entendu venir. Les capteurs de votre voiture n'ont vu aucun d'eux jusqu'à ce qu'ils soient à quelques mètres.

Il n'y a aucune chance de freiner à temps, donc la mère et l'enfant vont mourir si votre voiture ne fait pas une embardée immédiatement. Si la voiture dévie vers la gauche, vous sortez de la route et heurtez un arbre ; si la voiture dévie à droite, vous percutez un camion autonome venant en sens inverse. Il est vide, donc vous et votre conjoint seriez les seules victimes.

Dans cette situation, la voiture est obligée de prendre une décision - heurte-t-elle les piétons, les tuant presque certainement, ou met-elle en danger les passagers dans la probabilité qu'ils survivent à l'accident. Les réponses auront été décidées des mois (voire des années) auparavant, lorsque les algorithmes ont été programmés à l'origine dans le système informatique de votre voiture - et ils pourraient très bien mettre fin à votre vie. Bien que la voiture ne le sache pas, il s'agit en fait d'une décision éthique.

Pour démontrer la difficulté écrasante de coder l'éthique, essayez Moral Machine du Massachusetts Institute of Technology. C'est un quiz qui vise à suivre comment les humains réagissent aux décisions morales prises par les voitures autonomes. On vous présente une série de scénarios où une voiture sans conducteur doit choisir entre deux maux (c'est-à-dire tuer deux passagers ou cinq piétons) et vous devez choisir celui qui vous semble le plus acceptable. Comme vous vous en rendrez vite compte, c'est vraiment difficile.

Quel scénario choisiriez-vous ? La Moral Machine du MIT est un cauchemar autonome

Si tout cela vous effraie, vous n'êtes pas seul. En mars, une enquête menée par l'organisation automobile américaine AAA a révélé que trois conducteurs américains sur quatre ont "peur" de rouler.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd