Incidents associés
Incident 211 Rapport
Tougher Turing Test Exposes Chatbots’ Stupidity (migrated to Issue)
Incident 293 Rapports
Image Classification of Battle Tanks
Incident 422 Rapports
Inefficiencies in the United States Resident Matching Program
Incident 621 Rapport
Bad AI-Written Christmas Carols
Incident 851 Rapport
AI attempts to ease fear of robots, blurts out it can’t ‘avoid destroying humankind’
Incident 1591 Rapport
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks
Incident 2871 Rapport
OpenAI’s GPT-3 Reported as Unviable in Medical Tasks by Healthcare Firm
Incident 2981 Rapport
Student-Developed Facial Recognition App Raised Ethical Concerns

Les anciens incidents suivants ont été convertis en "issues" suite à une mise à jour de la définition d'incident et critères d'ingestion.
21 : Un test de Turing plus difficile révèle la stupidité des chatbots
Description : Le Winograd Schema Challenge 2016 a mis en évidence le fait que même les systèmes d'IA les plus performants qui ont participé au défi n'ont réussi que 3 % plus souvent que le hasard.
Pourquoi rétrogradé ? Il s'agit d'une découverte académique montrant une faiblesse de la technologie plutôt qu'un événement dommageable.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
62 : Mauvais chants de Noël écrits par l'IA
Description : Janelle Shane, chercheuse en IA, a utilisé 240 chants de Noël populaires pour entraîner un réseau de neurones à écrire ses propres chants.
Pourquoi rétrogradé ? A été conçu pour être humoristique et est en fait humoristique.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
- Chants de Noël, générés par un réseau de neurones
- L'IA est toujours nulle pour écrire des chants de Noël
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
159 : La reconnaissance des voies du pilote automatique Tesla serait vulnérable aux attaques adverses
Description : Tencent Keen Security Lab a mené des recherches sur la sécurité du système de pilotage automatique de Tesla et identifié des échantillons contradictoires conçus et le contrôle à distance via une manette de jeu sans fil comme des vulnérabilités de son système, bien que la société ait remis en question leur fonctionnalité dans le monde réel.
Pourquoi rétrogradé ? Les rapports présentent une vulnérabilité avec des dommages projetés plutôt qu'un rapport de dommages dans le monde réel.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
- Tencent Keen Security Lab : recherche expérimentale sur la sécurité du pilote automatique Tesla
- Trois petits autocollants à l'intersection peuvent faire dévier le pilote automatique Tesla dans la mauvaise voie
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
287 : GPT-3 d'OpenAI signalé comme non viable dans les tâches médicales par une entreprise de soins de santé
Description : La société française de soins numériques, Nabla, en recherchant les capacités de GPT-3 pour la documentation médicale, l'aide au diagnostic et la recommandation de traitement, a trouvé son incohérence et son manque d'expertise scientifique et médicale non viables et risqués dans les applications de soins de santé.
Pourquoi rétrogradé ? Les rapports indiquent l'insuffisance de ChatGPT pour plusieurs tâches pour lesquelles le système n'a pas été déployé dans le monde réel.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
- Docteur GPT-3 : hype ou réalité ?
- Les chercheurs ont créé un chatbot médical OpenAI GPT-3 à titre expérimental. Il a dit à un faux patient de se suicider
- Un chatbot médical utilisant le GPT-3 d'OpenAI a dit à un faux patient de se suicider
- Ce bot suggère en fait aux patients de se suicider
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
298 : L'application de reconnaissance faciale développée par les étudiants soulève des préoccupations éthiques
Description : L'application TheFaceTag, une application de réseau social développée et déployée sur le campus par un étudiant de Harvard, a soulevé des inquiétudes concernant sa reconnaissance faciale, sa cybersécurité, sa confidentialité et son utilisation abusive.
Pourquoi rétrogradé ? Les dommages devraient se produire, mais ne se sont pas encore produits.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
- Puis-je scanner votre visage ?
- Un étudiant de première année à Harvard a créé une application de réseautage social appelée "The FaceTag". Cela a déclenché un débat sur l'éthique de la reconnaissance faciale
- Une application d'un étudiant de Harvard a provoqué une controverse sur son éthique
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
85 : L'IA tente d'apaiser la peur des robots, laisse échapper qu'elle ne peut pas "éviter de détruire l'humanité"
La migration confirmée par les éditeurs - Incident 85 - ne correspond probablement pas aux critères d'incident actuels, où GPT-3 a été manipulé par des éditeurs humains pour exagérer les dommages, à la limite du sensationnalisme. https://incidentdatabase.ai/cite/85
Description : Le 8 septembre 2020, le Guardian a publié un éditorial généré par l'IA génératrice de texte GPT-3 d'OpenAI qui incluait des menaces de destruction de l'humanité.
Pourquoi rétrogradé ? On ne sait pas qui a été blessé, le cas échéant, par les événements d écrits.
Anciens rapports : Ces rapports étaient auparavant associés à l'incident.
Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.
- aucun
Candidats à la migration
Les incidents suivants peuvent également être migrés à l'avenir en fonction des discussions entre les éditeurs de la base de données d'incidents AI :
Ne répond pas à la définition et aux critères actuels https://incidentdatabase.ai/cite/42
L'incident 29 concerne "l'histoire du char", qui peut être apocryphe. https://incidentdatabase.ai/cite/29