Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 208

Incidents associés

Incident 2314 Rapports
A Tesla Crashed into and Killed a Road Sweeper on a Highway in China

Loading...
Deux ans plus tard, un père se bat toujours contre Tesla pour le pilote automatique et l'accident mortel de son fils
jalopnik.com · 2018

Début 2016, Gao Jubin, âgé de 48 ans, avait de grands espoirs pour l'avenir, avec des plans pour assouplir la gestion d'une entreprise de logistique et éventuellement céder le contrôle de l'entreprise à son fils, Gao Yaning. Mais ses plans ont été brusquement modifiés lorsque Yaning est mort au volant d'une Tesla Model S qui s'est écrasée sur une autoroute en Chine alors que la voiture - selon Jubin - voyageait en Autopilot, le nom de la suite d'aides à la conduite de Tesla. Maintenant, dit Jubin, "Vivre est pire que la mort." La dernière fois que Jubin a vu Yaning, c'était le 20 janvier 2016, quelques jours avant le Nouvel An chinois. La famille de Jubin venait de quitter une réception de mariage et son fils était de bonne humeur. La cérémonie était pour le frère de sa petite amie, il avait donc passé la journée à s'occuper et à aider en cas de besoin. Étant donné que le mariage impliquait son avenir potentiel dans les lois, la tradition chinoise signifiait que Yaning devrait aider avec enthousiasme à planifier la cérémonie, a déclaré Jubin à Jalopnik ce mois-ci, et il l'a fait. "Il a fait beaucoup de logistique du mariage, préparant le transport et hébergeant les invités", a déclaré Jubin. Après la cérémonie, Yaning a organisé le transport pour que ses parents rentrent chez eux. Il a pris la Tesla Model S de Jubin et est allé rencontrer des amis. Avant de partir, a déclaré Jubin, son fils a émis un avertissement: "Soyez prudent au volant." Rétrospectivement, c'était un présage. Sur le chemin du retour de Yaning, la Model S s'est écrasée à l'arrière d'un camion balayeur de route alors qu'elle circulait sur une autoroute dans la province du Hebei, dans le nord-est du pays. À l'époque, selon sa famille, la voiture roulait en pilote automatique, ce qui permet à ces voitures de changer automatiquement de voie après le signal du conducteur, de gérer la vitesse sur les routes et de freiner pour éviter les collisions. Yaning, 23 ans, est décédé peu après l'accident. La police locale rapporté il n'y avait aucune preuve que la voiture les freins ont été appliqués. Le crash en Chine est survenu à un moment précaire pour Tesla. À l'été 2016, le constructeur automobile et son système semi-autonome ont fait l'objet d'un examen minutieux après avoir révélé qu'un conducteur de Floride était décédé plus tôt cette année-là [dans un accident impliquant une Model S en pilotage automatique](https://jalopnik.com/ premier-fatal-tesla-autopilot-crash-sparks-nhtsa-investig-1782916450). Une enquête des régulateurs automobiles américains était déjà en cours. Mais personne n'était au courant de la mort de Yaning - qui s'est produite des mois avant l'accident de Floride - jusqu'en septembre, lorsque [Jubin a rendu public pour la première fois une action en justice qu'il avait intentée] (https://jalopnik.com/the-first-fatal-tesla -autopilot-crash-may-have-happened-1786626985#_ga=2.221012888.1248647947.1519132051-427793550.1518120488) contre Tesla au cours de l'accident. La police avait conclu que Yaning était à blâmer pour l'accident, mais le procès de Jubin a accusé Tesla et son personnel de vente d'avoir exagéré les capacités du pilote automatique. Il a demandé à un tribunal local de Pékin d'[autoriser une enquête indépendante](https://www.wsj.com/articles/family-of-driver-killed-in-tesla-crash-in-china-seeks-court-investigation -1474351855) pour conclure officiellement que le pilote automatique était engagé. Le costume a demandé des excuses à Tesla pour la façon dont il a promu la fonctionnalité. Plusieurs médias américains ont couvert le cas de Jubin après [Reuters a écrit sur la poursuite](https://www.Reuters.com/article/us-tesla-crash/chinese-man-blames-tesla-autopilot-function-for-sons- crash-idUSKCN11K232) en 2016, mais l'intérêt s'est presque immédiatement estompé. L'affaire, cependant, est toujours en cours, selon Jubin, qui s'est entretenu avec Jalopnik ce mois-ci par Skype lors de sa première interview avec un média américain. Il espère que la combinaison attirera davantage l'attention sur les capacités limitées du système et forcera Tesla à changer la façon dont il déploie la technologie avant qu'elle ne soit affinée. (Une action en justice fédérale déposée l'année dernière aux États-Unis a fait écho à cette préoccupation [alléguant que le constructeur automobile utilise des conducteurs] (https://jalopnik.com/angry-owners-sue-tesla-for-using-them-as-beta-testers- o-1794503348) en tant que "bêta-testeurs de logiciels à moitié cuits qui rendent les véhicules Tesla dangereux." Tesla a qualifié la poursuite d'"inexacte" et [a déclaré] (https://jalopnik.com/angry-owners-sue-tesla-for- en les utilisant comme bêta-testeurs-o-1794503348), il s'agissait d'une "tentative malhonnête d'obtenir des honoraires d'avocat se présentant comme une action en justice légitime".) En septembre 2016, [la société a déclaré] (https://www.wsj .com/articles/family-of-driver-killed-in-tesla-crash-in-china-seeks-court-investigation-1474351855) les dommages importants ont rendu impossible de déterminer si le pilote automatique était engagé. Suite à l'incident, Tesla a mis à jour le système afin que si un conducteur ignore les avertissements répétés pour reprendre le contrôle du véhicule, il ne puisse plus utiliser le pilote automatique pendant le reste du trajet. Même si le système était activé lors de la collision, Tesla a déclaré au Wall Street Journal, Autopilot avertit les conducteurs de garder la main sur le volant, ce qui est renforcé par des avertissements répétés pour «prendre le relais à tout moment». Yaning, [Tesla a dit] (https://www.wsj.com/articles/family-of-driver-killed-in-tesla-crash-in-china-seeks-court-investigation-1474351855), n'a pris aucune mesure même bien que la balayeuse "ait été visible pendant près de 20 secondes". Un porte-parole de Tesla a déclaré dans un communiqué à Jalopnik que "nous avons été profondément attristés d'apprendre que le conducteur de la Model S a perdu la vie dans l'incident". Une enquête policière, a déclaré le porte-parole, a révélé que la "cause principale de l'accident de la circulation" était l'incapacité de Yaning "à conduire en toute sécurité conformément aux règles de conduite", tandis que la cause secondaire était que les balayeurs de rue avaient "des installations de sécurité incomplètes". "Depuis lors, Tesla coopère avec une affaire civile en cours sur l'incident, par laquelle le tribunal a exigé qu'un évaluateur tiers examine les données du véhicule", indique le communiqué. "Bien que l'évaluation par un tiers ne soit pas encore terminée, nous n'avons aucune raison de croire que le pilote automatique de ce véhicule ait jamais fonctionné autrement que prévu." Au cours de la première année d'introduction du pilote automatique, en octobre 2015, Tesla a fait l'objet de vives critiques pour avoir étiqueté la fonctionnalité comme telle. [Les régulateurs du monde entier ont exprimé leur inquiétude quant au nom trompeur] (https://www.usatoday.com/story/money/cars/2016/10/17/misleading-tesla-under-fire-over-autopilot-name/ 92304978/). Tesla a toujours soutenu que le pilote automatique n'est qu'une aide à la conduite, pas un remplacement, et que [les automobilistes doivent faire attention à la route lorsqu'il est engagé](https://jalopnik.com/tesla-driver-who-slammed-into-parked -camion-de-pompier-en-calif-1822332668). Mais la messagerie du pilote automatique de Tesla a parfois été critiquée comme étant contradictoire et finalement déroutante. Et les conducteurs de Tesla continuent de pousser le système à ses limites, certains produisant des [vidéos](https://jalopnik.com/smoking-weed-while-your-tesla-drives-on-autopilot-isn-t-1820390972#_ga =2.190671787.1248647947.1519132051-427793550.1518120488) that show Autopilot being used in façons que le constructeur automobile n'approuverait pas officiellement. Dans les mois qui ont suivi l'accident, les inquiétudes concernant le pilote automatique semblaient se dissiper, alors que les constructeurs automobiles intensifiaient leurs efforts pour développer [leurs propres aides à la conduite semi-autonomes](https://jalopnik.com/cadillacs-super-cruise-makes-the- self-driving-future-se-1819153551#_ga=2.194913069.1248647947.1519132051-427793550.1518120488) qui pourrait défier Tesla. L'autonomie, selon la façon de penser de l'industrie automobile, était la voie de l'avenir. La National Highway Traffic Safety Administration, au début de 2017, a également donné à Tesla une certaine tranquillité d'esprit, après avoir [autorisé le constructeur automobile et le pilote automatique dans l'accident mortel de Floride] (https://jalopnik.com/feds-close-the-tesla- autopilot-death-investigation-with-1791378911#_ga=2.245667396.1174511965.1519656602-427793550.1518120488). Mais le National Transportation Safety Board des États-Unis a par la suite blâmé en partie [le pilote automatique et une dépendance excessive de l'automobiliste aux aides à la conduite de Tesla] (https://jalopnik.com/limits-of-teslas-autopilot-and-driver-error- cité-dans-fa-1803806982#_ga=2.245667396.1174511965.1519656602-427793550.1518120488). (Le NTSB ne peut que faire des recommandations de sécurité, tandis que la NHTSA est autorisée à ordonner des rappels ou à infliger des amendes.) Lors de l'accident de Floride, le président du NTSB, Robert Sumwalt, [a déclaré] -12/tesla-probe-focuses-on-restricting-autopilot-to-certain-roads), "Le système de Tesla a fonctionné comme prévu. Mais il a été conçu pour effectuer des tâches limitées dans une gamme limitée d'environnements. Le système laissait beaucoup trop de latitude au conducteur pour détourner son attention vers autre chose que la conduite. Il y a peu d'accidents connus [impliquant des conducteurs Tesla qui avaient activé le pilote automatique](https://www.theguardian.com/technology/2017/apr/03/the-customer-is-always-wrong-tesla-lets-out-self -driving-car-data-when-it-suits), mais étant donné que la technologie autonome est relativement nouvelle pour les voitures disponibles dans le commerce, les régulateurs se sont intéressés à leur fonctionnement, [même pour les accidents mineurs](https://jalopnik.com /a-human-driver-crashed-into-las-vegass-driverless-shutt-1820269207). Le système juridique n'a pas encore sérieusement pesé. Un procès fédéral [sur le déploiement du pilote automatique de Tesla est en cours](https://jalopnik.com/angry-owners-sue-tesla-for-using-them-as-beta-testers- o-1794503348); la première affaire concernant un accident impliquant une voiture autonome - déposée par un motocycliste [contre General Motors] (https://jalopnik.com/motorcyclist-sues-gm-over-crash-with-self-driving-chevy-1822358606#_ga =2.248272327.1174511965.1519656602-427793550.1518120488)—apparu seulement en janvier. Tesla précédemment dit que "n'importe quel véhicule peut être utilisé à mauvais escient. "Par exemple, aucune voiture n'empêche quelqu'un de rouler à très grande vitesse sur des routes où cela n'est pas approprié ou d'utiliser le régulateur de vitesse dans les rues de la ville", [le constructeur a déclaré] (https://electrek.co/2016/10/07 /tesla-provoque-une-réponse-approfondie-à-la-critique-sévère-du-pilote-automatique-par-les-autorités-allemandes/). "En revanche, Tesla a pris de nombreuses mesures pour empêcher un conducteur d'utiliser le pilote automatique de manière inappropriée." Mais les propriétaires de Tesla ont continué à publier des exemples d'utilisation abusive du système, ce qui fait craindre que certains ne comprennent pas les limites du pilote automatique ou s'y fient beaucoup trop. Ces inquiétudes ont été ravivées après qu'un [chauffeur de Tesla en janvier a percuté l'arrière d'un camion de pompiers garé](https://jalopnik.com/tesla-driver-who-slammed-into-parked-firetruck-on-calif-1822332668#_ga =2.70750800.1174511965.1519656602-427793550.1518120488) sur une autoroute californienne alors que sa Model S roulait apparemment en pilote automatique. En réponse, le NTSB et la NHTSA [tous deux ont lancé de nouvelles enquêtes sur l'utilisation du pilote automatique](https://jalopnik.com/tesla-driver-who-slammed-into-parked-firetruck-on-calif-1822332668#_ga=2.70750800 .1174511965.1519656602-427793550.1518120488), soulignant certaines des critiques que Jubin a soulevées pour la première fois après l'accident de son fils il y a deux ans. En particulier, Tesla en fait-il assez pour s'assurer que les conducteurs n'abuseront pas du pilote automatique ? Officiellement, il n'a pas été conclu si le pilote automatique était engagé au moment de l'accident de Yaning. Tesla a revendiqué Les dommages causés par la voiture de Jubin l'ont rendu physiquement incapable de transmettre les données du journal, de sorte que la société n'avait "aucun moyen de savoir si le pilote automatique était engagé ou non au moment de l'accident". Mais Jubin pense qu'il a plus qu'assez de preuves - des séquences vidéo enregistrées dans la voiture, un rapport d'un expert qui a examiné les clips, des commentaires anecdotiques d'autres propriétaires de Tesla - pour le prouver. L'inspection officielle n'est pas terminée, mais l'avocate de Jubin, Cathrine Guo, a déclaré mardi à Jalopnik que le siège américain de Tesla avait remis un document qui décode les données produites sur une carte mémoire SD installée dans la Model S. Le document, a déclaré Guo par e-mail, a enregistré les actions de la voiture et du conducteur et montre que le pilote automatique était activé au moment de l'accident. Lorsqu'on lui a demandé une réponse, Tesla a fait référence à la déclaration du porte-parole, qui disait: "Bien que l'évaluation par un tiers ne soit pas encore terminée, nous n'avons aucune raison de croire que le pilote automatique de ce véhicule ait jamais fonctionné autrement que comme prévu." Dans les clips de la dashcam, la Model S semble conduire en douceur, centrée sur les voies. "Même lorsque la route était accidentée et cahoteuse", a déclaré Jubin, "elle n'a pas changé de cap." Jubin s'est également entretenu avec des propriétaires et des experts de Tesla et il a déclaré qu'ils étaient d'accord sur le fait que le pilote automatique devait être engagé. Et lors d'une première audience, l'avocat de Jubin a déclaré que la vitesse de la Model S était restée constante pendant huit minutes avant la collision. Jubin a déclaré avoir trouvé un professeur à l'Université Jiaotong de Pékin qui est un expert en conduite autonome. Après avoir examiné la vidéo et les documents qui l'accompagnent, Jubin a déclaré: "Le professeur a estimé que ... le pilote automatique devait être la cause de l'accident." L'avocat de Jubin a également déclaré que Yaning n'avait pas bu ce jour-là. Un juge du tribunal populaire du district de Chaoyang à Pékin a récemment accédé à la demande de Jubin d'une inspection par un tiers pour confirmer si le pilote automatique était engagé, et l'enquête pourrait commencer dès ce mois-ci, a déclaré l'avocat Guo. "Sur la base de toutes les informations dont je dispose", a déclaré Jubin par l'intermédiaire de son avocat, qui a traduit la conversation. "Je n'ai aucun doute que l'accident a été causé par le pilote automatique." Tout au long de l'entretien de près de deux heures avec Jalopnik, Jubin a dû s'arrêter plusieurs fois pour se ressaisir. Yaning était un individu "très gentil, désintéressé et altruiste", a-t-il déclaré. "Quand il était enfant, quand il jouait avec ses amis, il prenait toujours des collations à la maison et les partageait", a déclaré Jubin. "Quand certains des enfants ne l'obtenaient pas, il revenait à la maison et en recevait plus." "Il avait été très compréhensif envers nous, les parents, nous aidant à nourrir sa petite sœur ou à laver ses vêtements", a-t-il poursuivi. "Chaque fois que nous sortions tous les quatre, c'était comme trois parents avec un enfant... c'était une belle famille vraiment heureuse, et tout d'un coup c'était parti, comme ça." La famille de Yaning a grandi dans la ville de Handan, dans la province chinoise du Hebei, où Jubin travaillait dans le commerce du charbon. Finalement, a déclaré Jubin, il a créé une entreprise de logistique et a entrepris des travaux de service public. Jubin a déclaré que son fils avait passé deux ans dans l'armée. Il est rentré chez lui et, finalement, a postulé dans un collège local pour étudier l'administration des affaires. Le plan, a déclaré Jubin, était qu'il reprenne un jour la société de logistique. "Je ne m'attendais pas à ce que tout soit en vain", a-t-il déclaré. Les derniers instants de vie de Yaning ont été capturés par une caméra apparemment installée sur le tableau de bord de la Model S. L'objectif regardait à travers le pare-brise et sur la route. L'avocat de Jubin a fourni à Jalopnik environ deux minutes et demie de séquences qui ont été [publiées pour la première fois en septembre 2016](https://jalopnik.com/the-first-fatal-tesla-autopilot-crash-may-have-happened -1786626985#_ga=2.88614168.2004418494.1519654358-1646309174.1503498445) par la chaîne publique chinoise CCTV. La vidéo montre la berline blanche circulant sur une autoroute à quatre voies par temps relativement clair. À un moment donné, on peut entendre Yaning chanter avec jubilation, alors que la voiture passe du milieu à la voie de gauche. La voiture continue sur la route, semblant rouler à la même vitesse. À un moment donné, une voiture devant la Model S se déplace dans la voie centrale, laissant une balayeuse de rue orange chevauchant l'accotement gauche de la route directement sur le chemin de Yaning. Le pilote automatique est conçu pour ajuster les vitesses à l'aide du régulateur de vitesse adaptatif. Si, par exemple, un objet apparaît sur la trajectoire de la voiture, une série croissante d'avertissements visuels et sonores est censée se déclencher, signalant au conducteur de reprendre le contrôle du volant. D'après la vidéo, aucune alerte d'avertissement ne s'est déclenchée et la Model S n'a jamais ralenti avant que Yaning ne percute le camion. Les véhicules Tesla sont équipés d'une technologie de freinage d'urgence automatique que le pilote automatique soit activé, qui est censé alerter le conducteur d'un danger potentiel. Si le conducteur ne réagit pas à temps, la voiture doit automatiquement appliquer ses freins. Mais le manuel du propriétaire de Tesla indique que le pilote automatique n'est pas apte à reconnaître les véhicules à l'arrêt à grande vitesse, comme Wired notes. "Le régulateur de vitesse averti du trafic ne peut pas détecter tous les objets et peut ne pas freiner/décélérer pour les véhicules à l'arrêt, en particulier dans les situations où vous roulez à plus de 80 km/h (50 mph) et qu'un véhicule que vous suivez sort de votre trajectoire de conduite et qu'un un véhicule ou un objet à l'arrêt est devant vous à la place », selon le manuel. Jubin était chez lui au moment de l'accident. Dans l'interview, Jubin a déclaré qu'un représentant du service client de Tesla avait appelé et lui avait dit "nous avons détecté que votre airbag a explosé". "J'ai dit:" Mon fils conduisait aujourd'hui. Je ne connais pas les détails, vous devriez raccrocher et appeler mon fils, et découvrir ce qui se passe », a déclaré Jubin. Peu de temps après, l'ami de Yaning qui conduisait près de lui au moment de l'accident dans une voiture séparée appelée Jubin et a déclaré qu'il avait été victime d'un grave accident. Jubin et sa femme sont immédiatement partis et se sont rendus sur les lieux de l'accident. À leur arrivée, Jubin a découvert que les premiers intervenants abordaient une scène horrible. "Je suis arrivé et j'ai vu que la voiture était en morceaux, et beaucoup de sang coulait de la voiture vers le sol", a-t-il déclaré. « Le sang couvrait une grande surface au sol. Nous nous sommes sentis très tristes. C'était un très mauvais sentiment, et ma femme priait dans ma voiture pour la sécurité de mon fils. Nous sommes arrivés à l'hôpital et le médecin m'a dit qu'ils avaient essayé et qu'ils n'avaient pas pu le sauver. Les mois qui ont suivi ont fait des ravages. Il a suspendu le travail dans l'entreprise de logistique et a licencié tous les employés. Jubin se concentre désormais uniquement sur le procès et prend soin de sa famille. "Il est parti et nous ne savons pas comment continuer", a déclaré Jubin. "Vivre est pire que la mort." La principale plainte de Jubin est ce qu'il a appelé la publicité trompeuse de Tesla sur le pilote automatique. Depuis l'introduction du système en 2015, le constructeur automobile a pris en compte les défenseurs des consommateurs, comme le montrent les vidéos de Tesla conducteurs [lire ou même dormir](https://www.reuters.com/article/us-tesla-autopilot-social/sleeping-driver-terrified-granny-among-tesla-autopilot-users-on-youtube-idUSKCN0ZH5R8? il=0 ) alors que leurs voitures étaient en mouvement. Jubin a déclaré que Tesla est à blâmer pour la façon dont certains clients ont perçu les capacités du pilote automatique. En particulier, il a souligné une conversation qu'il avait eue avec Yaning après l'achat de la Model S. Yaning, a-t-il dit, a expliqué qu'un vendeur de Tesla lui avait dit que le pilote automatique pouvait pratiquement gérer toutes les fonctions de conduite. « Si vous êtes en pilote automatique, vous pouvez simplement dormir sur l'autoroute et laisser la voiture tranquille ; il saura quand freiner ou tourner, et vous pourrez écouter de la musique ou boire du café », a déclaré Jubin, résumant les prétendues remarques du vendeur. Cela suit les reportages après que la mort de Yaning a été rendue publique. Selon un rapport [de Reuters](https://jalopnik.com/tesla-takes-away-autopilot-term-from-its -site-chinois-1785292163#_ga=2.185413993.1174511965.1519656602-427793550.1518120488). (Le personnel de vente chinois de Tesla a été [plus tard invité à clarifier les limites du pilote automatique](https://www.wsj.com/articles/family-of-driver-killed-in-tesla-crash-in-china-seeks- court-investigation-1474351855).) Mais Jubin a déclaré que son fils avait été "induit en erreur" par des vendeurs qui ont survendu les capacités d'Autopilot. Cela a continué même après la mort de Yaning, a-t-il affirmé. "Quand j'étais dans un magasin de détail Tesla, ils faisaient encore de la publicité, et en ligne aussi, comment vous pouvez dormir ou boire du café et tout", a-t-il déclaré. Après que Jubin a initialement déposé sa plainte en juillet 2016, [Tesla a supprimé le pilote automatique et un terme chinois pour "conduite autonome"](https://jalopnik.com/tesla-takes-away-autopilot-term-from-its-chinese- site Web-1785292163) à partir de son site Web en Chine et de ses documents marketing. L'expression zi dong jia shi, signifie que la voiture peut se conduire toute seule, selon le Wall Street Journal [rapporté à l'époque](https://www.wsj.com/articles/family-of-driver-killed-in-tesla- accident-en-chine-demande-une-enquête-judiciaire-1474351855). Tesla a changé cela en zi dong fu zhu jia shi, ce qui signifie un système d'assistance à la conduite. "Lorsque vous entendez la conduite autonome ou l'auto-conduite, lorsque vous l'entendez décrite comme telle, comme sûre, en particulier sur les autoroutes, c'est totalement différent de la description de la conduite autonome assistée", a déclaré Guo, l'avocat de Jubin. "C'est l'une des raisons pour lesquelles nous avons poursuivi Tesla." Les constructeurs automobiles testent actuellement des voitures entièrement autonomes, mais personne dans l'industrie ne s'attend à ce qu'elles soient disponibles à l'achat dans les années à venir. Jubin soutient le mouvement vers l'autonomie, mais il a exhorté les conducteurs du monde entier à être prudents et à bien comprendre leurs limites. "J'espère que davantage de propriétaires de Tesla en prendront conscience", a-t-il ajouté, "et éviteront des accidents comme celui-ci." La poursuite demandait initialement environ 2 000 $ en compensation pour le chagrin de la famille suite à la mort de Yaning. Mais la plainte a depuis été modifiée et demande maintenant 5 millions de yuans (environ 750 000 dollars). S'il l'emporte, a déclaré Jubin, il prévoit d'utiliser une partie de l'argent pour créer un fonds caritatif "afin d'avertir davantage de propriétaires de Tesla de ne pas utiliser le pilote automatique". "Nous espérons qu'il n'y aura plus de familles tragiques comme la nôtre", a-t-il déclaré. Jubin pense que les progrès technologiques de l'industrie vers la conduite entièrement autonome sont certains, mais il pense que le pilote automatique est trop prématuré pour être publié. "Tesla devrait publier la fonctionnalité une fois qu'elle sera complètement développée", a déclaré Jubin, "pas en train de la perfectionner". MISE À JOUR : Dans une réponse à cette histoire envoyée après la publication, un porte-parole de Tesla a déclaré que le père du conducteur avait dit au personnel de Tesla que son fils connaissait très bien le pilote automatique et avait lu le manuel du propriétaire de la Model S "encore et encore". De plus, le constructeur automobile a demandé à Jalopnik de noter que la voiture avertit que l'Autosteer est en version bêta, nécessite les mains sur le volant, ne doit pas être utilisé sur des routes avec des virages serrés et des marquages de voie douteux, et renvoie les conducteurs au manuel, qui indique en outre que le conducteur est responsable de surveiller le système.

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd