Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Problème 2471

Incidents associés

Incident 211 Rapport
Tougher Turing Test Exposes Chatbots’ Stupidity (migrated to Issue)

Incident 293 Rapports
Image Classification of Battle Tanks

Incident 422 Rapports
Inefficiencies in the United States Resident Matching Program

Incident 621 Rapport
Bad AI-Written Christmas Carols

Incident 851 Rapport
AI attempts to ease fear of robots, blurts out it can’t ‘avoid destroying humankind’

Incident 1591 Rapport
Tesla Autopilot’s Lane Recognition Allegedly Vulnerable to Adversarial Attacks

Incident 2871 Rapport
OpenAI’s GPT-3 Reported as Unviable in Medical Tasks by Healthcare Firm

Incident 2981 Rapport
Student-Developed Facial Recognition App Raised Ethical Concerns

Loading...
Incidents de la base de données des incidents AI convertis en problèmes
github.com · 2022

Les anciens incidents suivants ont été convertis en "issues" suite à une mise à jour de la définition d'incident et critères d'ingestion.

21 : Un test de Turing plus difficile révèle la stupidité des chatbots

Description : Le Winograd Schema Challenge 2016 a mis en évidence le fait que même les systèmes d'IA les plus performants qui ont participé au défi n'ont réussi que 3 % plus souvent que le hasard.

Pourquoi rétrogradé ? Il s'agit d'une découverte académique montrant une faiblesse de la technologie plutôt qu'un événement dommageable.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • Tougher Turing Test Exposes Chatbots’ Stupidity

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

62 : Mauvais chants de Noël écrits par l'IA

Description : Janelle Shane, chercheuse en IA, a utilisé 240 chants de Noël populaires pour entraîner un réseau de neurones à écrire ses propres chants.

Pourquoi rétrogradé ? A été conçu pour être humoristique et est en fait humoristique.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • Chants de Noël, générés par un réseau de neurones
  • L'IA est toujours nulle pour écrire des chants de Noël

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

159 : La reconnaissance des voies du pilote automatique Tesla serait vulnérable aux attaques adverses

Description : Tencent Keen Security Lab a mené des recherches sur la sécurité du système de pilotage automatique de Tesla et identifié des échantillons contradictoires conçus et le contrôle à distance via une manette de jeu sans fil comme des vulnérabilités de son système, bien que la société ait remis en question leur fonctionnalité dans le monde réel.

Pourquoi rétrogradé ? Les rapports présentent une vulnérabilité avec des dommages projetés plutôt qu'un rapport de dommages dans le monde réel.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • Tencent Keen Security Lab : recherche expérimentale sur la sécurité du pilote automatique Tesla
  • Trois petits autocollants à l'intersection peuvent faire dévier le pilote automatique Tesla dans la mauvaise voie

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

287 : GPT-3 d'OpenAI signalé comme non viable dans les tâches médicales par une entreprise de soins de santé

Description : La société française de soins numériques, Nabla, en recherchant les capacités de GPT-3 pour la documentation médicale, l'aide au diagnostic et la recommandation de traitement, a trouvé son incohérence et son manque d'expertise scientifique et médicale non viables et risqués dans les applications de soins de santé.

Pourquoi rétrogradé ? Les rapports indiquent l'insuffisance de ChatGPT pour plusieurs tâches pour lesquelles le système n'a pas été déployé dans le monde réel.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • Docteur GPT-3 : hype ou réalité ?
  • Les chercheurs ont créé un chatbot médical OpenAI GPT-3 à titre expérimental. Il a dit à un faux patient de se suicider
  • Un chatbot médical utilisant le GPT-3 d'OpenAI a dit à un faux patient de se suicider
  • Ce bot suggère en fait aux patients de se suicider

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

298 : L'application de reconnaissance faciale développée par les étudiants soulève des préoccupations éthiques

Description : L'application TheFaceTag, une application de réseau social développée et déployée sur le campus par un étudiant de Harvard, a soulevé des inquiétudes concernant sa reconnaissance faciale, sa cybersécurité, sa confidentialité et son utilisation abusive.

Pourquoi rétrogradé ? Les dommages devraient se produire, mais ne se sont pas encore produits.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • Puis-je scanner votre visage ?
  • Un étudiant de première année à Harvard a créé une application de réseautage social appelée "The FaceTag". Cela a déclenché un débat sur l'éthique de la reconnaissance faciale
  • Une application d'un étudiant de Harvard a provoqué une controverse sur son éthique

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

85 : L'IA tente d'apaiser la peur des robots, laisse échapper qu'elle ne peut pas "éviter de détruire l'humanité"

La migration confirmée par les éditeurs - Incident 85 - ne correspond probablement pas aux critères d'incident actuels, où GPT-3 a été manipulé par des éditeurs humains pour exagérer les dommages, à la limite du sensationnalisme. https://incidentdatabase.ai/cite/85

Description : Le 8 septembre 2020, le Guardian a publié un éditorial généré par l'IA génératrice de texte GPT-3 d'OpenAI qui incluait des menaces de destruction de l'humanité.

Pourquoi rétrogradé ? On ne sait pas qui a été blessé, le cas échéant, par les événements décrits.

Anciens rapports : Ces rapports étaient auparavant associés à l'incident.

  • L'IA tente d'apaiser la peur des robots, laisse échapper qu'elle ne peut pas "éviter de détruire l'humanité"

Rapports migrés : Les rapports associés à cet incident sont désormais associés à d'autres incidents en tant que contexte.

  • aucun

Candidats à la migration

Les incidents suivants peuvent également être migrés à l'avenir en fonction des discussions entre les éditeurs de la base de données d'incidents AI :

Ne répond pas à la définition et aux critères actuels https://incidentdatabase.ai/cite/42

L'incident 29 concerne "l'histoire du char", qui peut être apocryphe. https://incidentdatabase.ai/cite/29

Lire la source

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd