Journal des citations pour l'incident 128

Description: A Tesla Sedan operating on Autopilot mode was not able to center itself on the road and drove over a yellow dividing curb in Redmond, Washington, causing minor damage to the vehicle’s rear suspension.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique
Présumé : Un système d'IA développé et mis en œuvre par Tesla, endommagé Eric Horvitz and Tesla drivers.

Statistiques d'incidents

ID
128
Nombre de rapports
2
Date de l'incident
2017-08-01
Editeurs
Sean McGregor, Khoa Lam
Les entreprises technologiques se déplacent pour mettre des garde-corps éthiques autour de l'IA
wired.com · 2018

Un jour de l'été dernier, le directeur de la recherche en intelligence artificielle de Microsoft, Eric Horvitz, a activé la fonction Autopilot de sa berline Tesla. La voiture s'est dirigée sur une route sinueuse près du campus de Microsoft …

La transcription de l'éthique de l'intelligence artificielle du best-seller #transhumancode
carloscreusmoreira.medium.com · 2019

À l'été 2017, Eric Horvitz a activé la fonction Autopilot de sa berline Tesla. Ne pas avoir à se soucier de diriger la voiture le long d'une route sinueuse à Redmond, Washington, a permis à Horvitz de mieux se concentrer sur l'appel qu'il p…

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.