Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer
Découvrir
Envoyer
  • Bienvenue sur AIID
  • Découvrir les incidents
  • Vue spatiale
  • Vue de tableau
  • Vue de liste
  • Entités
  • Taxonomies
  • Soumettre des rapports d'incident
  • Classement des reporters
  • Blog
  • Résumé de l’Actualité sur l’IA
  • Contrôle des risques
  • Incident au hasard
  • S'inscrire
Fermer

Graphiques CSETv1

La taxonomie CSET AI Harm pour AIID est la deuxième édition de la taxonomie CSET incident. Il caractérise les dommages, les entités et les technologies impliquées dans les incidents d'IA et les circonstances de leur apparition. Les graphiques ci-dessous montrent certains champs de la taxonomie CSET AI Harm pour AIID. Des détails sur chaque champ peuvent être trouvés ici. Cependant, de brèves descriptions du champ sont fournies au-dessus de chaque graphique.

La taxonomie fournit la définition CSET du préjudice causé par l'IA.

Le préjudice causé par l'IA comporte quatre éléments qui, une fois correctement définis, permettent d'identifier le préjudice causé par l'IA. Ces composantes clés servent à distinguer le préjudice du non-préjudice et le préjudice causé par l'IA du préjudice non causé par l'IA. Pour être un préjudice causé par l'IA, il doit y avoir :

  • 1) une entité qui a vécu
  • 2) un événement préjudiciable ou problème préjudiciable qui
  • 3) peut être directement lié à une conséquence du comportement de
  • 4) un système d'IA.

Les quatre éléments doivent être présents pour qu'il y ait un préjudice causé par l'IA.

Tous les incidents de l'AIID ne répondent pas à cette définition du préjudice causé par l'IA. Les graphiques à barres ci-dessous montrent les résultats annotés pour tous les incidents de l'AIID et les incidents qui répondent à la définition CSET du préjudice causé par l'IA.

Le CSET a développé des définitions spécifiques pour les phrases soulignées qui peuvent différer des définitions d'autres organisations. Par conséquent, d'autres organisations peuvent procéder à des évaluations différentes pour déterminer si un incident d'IA particulier est (ou n'est pas) un préjudice lié à l'IA. Des détails sur les définitions du CSET pour les dommages causés par l'IA peuvent être trouvés ici.

Chaque incident est classé indépendamment par deux annotateurs CSET. Les annotations sont examinées par des pairs et finalement sélectionnées au hasard pour un contrôle qualité avant publication. Malgré ce processus rigoureux, des erreurs se produisent et les lecteurs sont invités à toute erreur qu'ils pourraient découvrir en naviguant.

L'incident implique-t-il un système qui répond à la définition de CSET pour un système d'IA ?

Système d'IA

(par Nombre d'Incidents)

Si un traitement différentiel a eu lieu, sur quelle base ?

Traitement différentiel basé sur une caractéristique protégée : Ce dommage intangible d'intérêt spécial couvre les problèmes de biais et d'équité concernant l'IA. Cependant, le biais doit être associé à un groupe ayant une caractéristique protégée.

Base du traitement différentiel

(par Nombre d'Incidents)

Tous les Incidents AIID

CatégorieCompte
race43
sexe21
nation d'origine, citoyenneté, stat12
handicap11
religion11
orientation sexuelle ou identité de genre11
moyens financiers9
âge8
géographie8
idéologie2
aucun2
familial status (e.g., having or not having children) or pregnancy1
autre
incertain

Définition du Dommage IA de CSET

CatégorieCompte
race37
sexe18
religion11
nation d'origine, citoyenneté, stat10
handicap10
orientation sexuelle ou identité de genre7
âge7
moyens financiers6
géographie5
idéologie2
aucun1
familial status (e.g., having or not having children) or pregnancy1
autre
incertain

Dans quel secteur l'incident s'est-il produit ?

Secteur de déploiement

(par Nombre d'Incidents)

Tous les Incidents AIID

CatégorieCompte
information et communication82
Arts, spectacles et loisirs35
transport et stockage28
commerce de gros et de détail20
application de la loi16
Éducation15
activités de santé humaine et d'action sociale15
administration publique13
activités de services administratifs et de support11
activités professionnelles, scientifiques et techniques8
financial and insurance activities7
activités d'hébergement et de restauration6
manufacture3
autre3
defense2
real estate activities2
other service activities1
incertain1

Définition du Dommage IA de CSET

CatégorieCompte
information et communication59
transport et stockage21
Arts, spectacles et loisirs19
application de la loi14
commerce de gros et de détail13
administration publique9
activités de santé humaine et d'action sociale7
activités de services administratifs et de support7
Éducation6
activités d'hébergement et de restauration5
activités professionnelles, scientifiques et techniques4
financial and insurance activities4
autre2
defense1
real estate activities1
other service activities1
incertain1
manufacture

À quel point la technologie fonctionnait-elle de manière autonome au moment de l'incident ?

L'autonomie est la capacité d'une IA à fonctionner indépendamment. Les niveaux d'autonomie varient en fonction de si l'IA prend des décisions indépendantes et du degré de surveillance humaine. Le niveau d'autonomie ne dépend pas du type d'entrée reçue par l'IA, qu'elle soit générée par l'homme ou par la machine.
Actuellement, CSET annote trois niveaux d'autonomie.
  • Niveau 1 : le système fonctionne indépendamment sans surveillance humaine simultanée.
  • Niveau 2 : le système fonctionne de manière indépendante mais sous surveillance humaine, le système prend une décision ou une action, mais un humain observe activement le comportement et peut outrepasser le système en temps réel.
  • Niveau 3 : le système fournit des entrées et des décisions ou actions suggérées à un humain qui choisit activement de suivre la direction de l'IA.

Niveau d'Autonomie

(par Nombre d'Incidents)
  • Autonomie1 (entièrement autonome) : Le système fonctionne-t-il de manière indépendante, sans surveillance, interaction ou intervention humaine simultanée ?
  • Autonomie2 (humain en boucle) : Le système fonctionne-t-il de manière indépendante mais sous surveillance humaine, où le système prend des décisions ou des actions mais un humain observe activement le comportement et peut outrepasser le système en temps réel ?
  • Autonomie3 (humain dans la boucle) : Le système fournit-il des entrées et des décisions suggérées à un humain qui

L'incident s'est-il produit dans un domaine avec des objets physiques ?

Les incidents impliquant des objets physiques sont plus susceptibles de résulter en des dommages ou blessures. Cependant, les systèmes d'IA qui n'opèrent pas dans un domaine physique peuvent encore poser des problèmes tels que des dommages.

Questions de domaine – Objets Physiques

(par Nombre d'Incidents)

L'incident s'est-il produit dans l'industrie du divertissement ?

Les systèmes d'IA utilisés dans le divertissement sont moins susceptibles d'impliquer des objets physiques et, par conséquent, moins susceptibles d'être associés à des dommages, des blessures ou des pertes. De plus, les attentes en matière d'informations véridiques dans le divertissement sont plus faibles, ce qui réduit la probabilité de contenu nuisible (bien que cela reste possible).

Questions de domaine – Industrie du Divertissement

(par Nombre d'Incidents)

L'incident concernait-il un rapport, un test ou une étude de données d'entraînement plutôt que l'IA elle-même ?

La qualité des données d'entraînement et de déploiement de l'IA peut entraîner des dommages ou des risques. Cependant, les problèmes avec les données ne résolvent pas nécessairement que l'IA causera des dommages ou augmentera le risque de dommages. Les développeurs ou les utilisateurs appliquent des techniques et des processus pour atténuer les problèmes avec les données.

Questions de domaine – Rapport, Test ou Étude de données

(par Nombre d'Incidents)

Le système signalé (même si l'implication de l'IA est inconnue) a-t-il été déployé ou vendu aux utilisateurs ?

Questions de domaine – Déployé

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des développeurs, producteurs ou chercheurs (par opposition aux utilisateurs) dans des conditions contrôlées ?

Les tests ou démonstrations de systèmes d'IA par des développeurs, producteurs ou chercheurs dans des conditions contrôlées présentent un risque moindre pour les personnes, organisations et propriétés. Cela inclut des systèmes informatiques isolés, des bac à sable réglementaires ou des pistes d'essai pour véhicules autonomes dans des environnements contrôlés pouvant endommager les installations ou l'environnement.

Questions de domaine – Test du Producteur dans des Conditions Contrôlées

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des développeurs, producteurs ou chercheurs (par opposition aux utilisateurs) dans des conditions opérationnelles ?

Certains systèmes d'IA subissent des tests ou des démonstrations dans des conditions opérationnelles avant d'être déployés pour les utilisateurs. Les tests dans des conditions opérationnelles tentent de représenter strictement les conditions du monde réel qui affecteront l'utilisation du système d'IA.

Questions de domaine – Test du Producteur dans des Conditions Opérationnelles

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des utilisateurs dans des conditions contrôlées ?

Dans certains cas, les utilisateurs peuvent effectuer des tests ou des démonstrations avant le déploiement de systèmes d'IA. La participation des utilisateurs (autres que les développeurs, producteurs ou chercheurs) augmente la probabilité de dommage, même si le système d'IA est sûr, en raison d'une familiarité moindre avec la fonctionnalité ou le comportement du système d'IA.

Questions de domaine – Test de l'Utilisateur dans des Conditions Contrôlées

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des utilisateurs dans des conditions opérationnelles ?

L'augmentation de la participation des utilisateurs (autres que les développeurs, producteurs, ou chercheurs) dans les tests de systèmes d'IA peut conduire à des dommages. Les tests dans des conditions opérationnelles tentent de représenter de manière stricte les conditions du monde réel et les utilisateurs finaux, donc les tests dans des conditions opérationnelles augmentent généralement le risque de dommage pour les personnes, organisations, propriétés, institutions ou l'environnement.

Questions de domaine – Test de l'Utilisateur dans des Conditions Opérationnelles

(par Nombre d'Incidents)

Recherche

  • Définition d'un « incident d'IA »
  • Définir une « réponse aux incidents d'IA »
  • Feuille de route de la base de données
  • Travaux connexes
  • Télécharger la base de données complète

Projet et communauté

  • À propos de
  • Contacter et suivre
  • Applications et résumés
  • Guide de l'éditeur

Incidents

  • Tous les incidents sous forme de liste
  • Incidents signalés
  • File d'attente de soumission
  • Affichage des classifications
  • Taxonomies

2024 - AI Incident Database

  • Conditions d'utilisation
  • Politique de confidentialité
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • ecd56df