Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Incident 187: YouTuber Tested Tesla on Self Driving Mode, Colliding with Street Pylons

Description: A YouTuber who was a Tesla’s employee conducted an on-road review of Tesla's Full Self Driving (FSD) Beta, showing its navigation in various road environments in San Jose and collision with a bollards during Autopilot, allegedly causing his dismissal from the company.

Outils

Nouveau rapportNouveau rapportNouvelle RéponseNouvelle RéponseDécouvrirDécouvrirVoir l'historiqueVoir l'historique

Entités

Voir toutes les entités
Alleged: Tesla developed an AI system deployed by AI Addict, which harmed John Bernal et San Jose public.

Statistiques d'incidents

ID
187
Nombre de rapports
3
Date de l'incident
2022-02-04
Editeurs
Sean McGregor, Khoa Lam
Applied Taxonomies
GMF, MIT

Classifications de taxonomie MIT

Machine-Classified
Détails de la taxonomie

Risk Subdomain

A further 23 subdomains create an accessible and understandable classification of hazards and harms associated with AI
 

6.5. Governance failure

Risk Domain

The Domain Taxonomy of AI Risks classifies risks into seven AI risk domains: (1) Discrimination & toxicity, (2) Privacy & security, (3) Misinformation, (4) Malicious actors & misuse, (5) Human-computer interaction, (6) Socioeconomic & environmental harms, and (7) AI system safety, failures & limitations.
 
  1. Socioeconomic & Environmental Harms

Entity

Which, if any, entity is presented as the main cause of the risk
 

Human

Timing

The stage in the AI lifecycle at which the risk is presented as occurring
 

Post-deployment

Intent

Whether the risk is presented as occurring as an expected or unexpected outcome from pursuing a goal
 

Intentional

Rapports d'incidents

Chronologie du rapport

Incident OccurrenceAccident de conduite entièrement autonome de Tesla+1
Tesla a licencié un employé après avoir publié des critiques de technologies sans conducteur sur YouTube
Accident de conduite entièrement autonome de Tesla

Accident de conduite entièrement autonome de Tesla

youtu.be

Tesla a licencié un employé après avoir publié des critiques de technologies sans conducteur sur YouTube

Tesla a licencié un employé après avoir publié des critiques de technologies sans conducteur sur YouTube

cnbc.com

Tesla a licencié un employé qui a examiné ses fonctionnalités d'aide à la conduite sur YouTube

Tesla a licencié un employé qui a examiné ses fonctionnalités d'aide à la conduite sur YouTube

theverge.com

Accident de conduite entièrement autonome de Tesla
youtu.be · 2022
Traduit par IA

Hé YouTube AI addict ici, bienvenue dans une autre vidéo FSD Beta. Aujourd'hui, nous sommes le 10.10 au centre-ville de San Jose pour un autre test de résistance au centre-ville. Je suis vraiment désolé que vous ne nous ayez pas vus ici dep…

Tesla a licencié un employé après avoir publié des critiques de technologies sans conducteur sur YouTube
cnbc.com · 2022
Traduit par IA

Tesla a licencié un ancien employé du pilote automatique nommé John Bernal après avoir partagé des critiques vidéo franches sur sa chaîne YouTube, AI Addict, montrant comment le système Full Self Driving Beta de la société fonctionnait dans…

Tesla a licencié un employé qui a examiné ses fonctionnalités d'aide à la conduite sur YouTube
theverge.com · 2022
Traduit par IA

John Bernal a partagé des clips d'appels rapprochés et de plantages sur sa chaîne, AI Addict

Tesla entretient une relation compliquée avec les clients qui paient pour tester la version bêta de son logiciel "Full Sell Driving". Souvent, ces …

Variantes

Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.
Incident précédentProchain incident

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df