Graphiques CSETv1

La taxonomie CSET AI Harm pour AIID est la deuxième édition de la taxonomie CSET incident. Il caractérise les dommages, les entités et les technologies impliquées dans les incidents d'IA et les circonstances de leur apparition. Les graphiques ci-dessous montrent certains champs de la taxonomie CSET AI Harm pour AIID. Des détails sur chaque champ peuvent être trouvés ici. Cependant, de brèves descriptions du champ sont fournies au-dessus de chaque graphique.

La taxonomie fournit la définition CSET du préjudice causé par l'IA.

Le préjudice causé par l'IA comporte quatre éléments qui, une fois correctement définis, permettent d'identifier le préjudice causé par l'IA. Ces composantes clés servent à distinguer le préjudice du non-préjudice et le préjudice causé par l'IA du préjudice non causé par l'IA. Pour être un préjudice causé par l'IA, il doit y avoir :

  • 1) une entité qui a vécu
  • 2) un événement préjudiciable ou problème préjudiciable qui
  • 3) peut être directement lié à une conséquence du comportement de
  • 4) un système d'IA.

Les quatre éléments doivent être présents pour qu'il y ait un préjudice causé par l'IA.

Tous les incidents de l'AIID ne répondent pas à cette définition du préjudice causé par l'IA. Les graphiques à barres ci-dessous montrent les résultats annotés pour tous les incidents de l'AIID et les incidents qui répondent à la définition CSET du préjudice causé par l'IA.

Le CSET a développé des définitions spécifiques pour les phrases soulignées qui peuvent différer des définitions d'autres organisations. Par conséquent, d'autres organisations peuvent procéder à des évaluations différentes pour déterminer si un incident d'IA particulier est (ou n'est pas) un préjudice lié à l'IA. Des détails sur les définitions du CSET pour les dommages causés par l'IA peuvent être trouvés ici.

Chaque incident est classé indépendamment par deux annotateurs CSET. Les annotations sont examinées par des pairs et finalement sélectionnées au hasard pour un contrôle qualité avant publication. Malgré ce processus rigoureux, des erreurs se produisent et les lecteurs sont invités à toute erreur qu'ils pourraient découvrir en naviguant.

L'incident implique-t-il un système qui répond à la définition de CSET pour un système d'IA ?

Système d'IA

(par Nombre d'Incidents)

Si un traitement différentiel a eu lieu, sur quelle base ?

Traitement différentiel basé sur une caractéristique protégée : Ce dommage intangible d'intérêt spécial couvre les problèmes de biais et d'équité concernant l'IA. Cependant, le biais doit être associé à un groupe ayant une caractéristique protégée.

Base du traitement différentiel

(par Nombre d'Incidents)

Tous les Incidents AIID

CatégorieCompte
race9
sexe8
nation d'origine, citoyenneté, stat4
orientation sexuelle ou identité de genre2
âge1
handicap1
moyens financiers1
géographie1
idéologie1
religion1
aucun

Définition du Dommage IA de CSET

CatégorieCompte
race6
sexe5
nation d'origine, citoyenneté, stat3
orientation sexuelle ou identité de genre1
handicap1
idéologie1
religion1
âge
moyens financiers
géographie
aucun

Dans quel secteur l'incident s'est-il produit ?

Secteur de déploiement

(par Nombre d'Incidents)

Tous les Incidents AIID

CatégorieCompte
information et communication18
transport et stockage11
Arts, spectacles et loisirs6
application de la loi5
commerce de gros et de détail5
activités de services administratifs et de support4
activités professionnelles, scientifiques et techniques4
administration publique4
activités de santé humaine et d'action sociale3
manufacture3
Éducation2
activités d'hébergement et de restauration1
autre1

Définition du Dommage IA de CSET

CatégorieCompte
information et communication11
transport et stockage7
application de la loi3
administration publique3
Arts, spectacles et loisirs2
activités de services administratifs et de support2
commerce de gros et de détail1
activités professionnelles, scientifiques et techniques1
activités d'hébergement et de restauration1
activités de santé humaine et d'action sociale
manufacture
Éducation
autre

À quel point la technologie fonctionnait-elle de manière autonome au moment de l'incident ?

L'autonomie est la capacité d'une IA à fonctionner indépendamment. Les niveaux d'autonomie varient en fonction de si l'IA prend des décisions indépendantes et du degré de surveillance humaine. Le niveau d'autonomie ne dépend pas du type d'entrée reçue par l'IA, qu'elle soit générée par l'homme ou par la machine.
Actuellement, CSET annote trois niveaux d'autonomie.
  • Niveau 1 : le système fonctionne indépendamment sans surveillance humaine simultanée.
  • Niveau 2 : le système fonctionne de manière indépendante mais sous surveillance humaine, le système prend une décision ou une action, mais un humain observe activement le comportement et peut outrepasser le système en temps réel.
  • Niveau 3 : le système fournit des entrées et des décisions ou actions suggérées à un humain qui choisit activement de suivre la direction de l'IA.

Niveau d'Autonomie

(par Nombre d'Incidents)
  • Autonomie1 (entièrement autonome) : Le système fonctionne-t-il de manière indépendante, sans surveillance, interaction ou intervention humaine simultanée ?
  • Autonomie2 (humain en boucle) : Le système fonctionne-t-il de manière indépendante mais sous surveillance humaine, où le système prend des décisions ou des actions mais un humain observe activement le comportement et peut outrepasser le système en temps réel ?
  • Autonomie3 (humain dans la boucle) : Le système fournit-il des entrées et des décisions suggérées à un humain qui

L'incident s'est-il produit dans un domaine avec des objets physiques ?

Les incidents impliquant des objets physiques sont plus susceptibles de résulter en des dommages ou blessures. Cependant, les systèmes d'IA qui n'opèrent pas dans un domaine physique peuvent encore poser des problèmes tels que des dommages.

Questions de domaine – Objets Physiques

(par Nombre d'Incidents)

L'incident s'est-il produit dans l'industrie du divertissement ?

Les systèmes d'IA utilisés dans le divertissement sont moins susceptibles d'impliquer des objets physiques et, par conséquent, moins susceptibles d'être associés à des dommages, des blessures ou des pertes. De plus, les attentes en matière d'informations véridiques dans le divertissement sont plus faibles, ce qui réduit la probabilité de contenu nuisible (bien que cela reste possible).

Questions de domaine – Industrie du Divertissement

(par Nombre d'Incidents)

L'incident concernait-il un rapport, un test ou une étude de données d'entraînement plutôt que l'IA elle-même ?

La qualité des données d'entraînement et de déploiement de l'IA peut entraîner des dommages ou des risques. Cependant, les problèmes avec les données ne résolvent pas nécessairement que l'IA causera des dommages ou augmentera le risque de dommages. Les développeurs ou les utilisateurs appliquent des techniques et des processus pour atténuer les problèmes avec les données.

Questions de domaine – Rapport, Test ou Étude de données

(par Nombre d'Incidents)

Le système signalé (même si l'implication de l'IA est inconnue) a-t-il été déployé ou vendu aux utilisateurs ?

Questions de domaine – Déployé

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des développeurs, producteurs ou chercheurs (par opposition aux utilisateurs) dans des conditions contrôlées ?

Les tests ou démonstrations de systèmes d'IA par des développeurs, producteurs ou chercheurs dans des conditions contrôlées présentent un risque moindre pour les personnes, organisations et propriétés. Cela inclut des systèmes informatiques isolés, des bac à sable réglementaires ou des pistes d'essai pour véhicules autonomes dans des environnements contrôlés pouvant endommager les installations ou l'environnement.

Questions de domaine – Test du Producteur dans des Conditions Contrôlées

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des développeurs, producteurs ou chercheurs (par opposition aux utilisateurs) dans des conditions opérationnelles ?

Certains systèmes d'IA subissent des tests ou des démonstrations dans des conditions opérationnelles avant d'être déployés pour les utilisateurs. Les tests dans des conditions opérationnelles tentent de représenter strictement les conditions du monde réel qui affecteront l'utilisation du système d'IA.

Questions de domaine – Test du Producteur dans des Conditions Opérationnelles

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des utilisateurs dans des conditions contrôlées ?

Dans certains cas, les utilisateurs peuvent effectuer des tests ou des démonstrations avant le déploiement de systèmes d'IA. La participation des utilisateurs (autres que les développeurs, producteurs ou chercheurs) augmente la probabilité de dommage, même si le système d'IA est sûr, en raison d'une familiarité moindre avec la fonctionnalité ou le comportement du système d'IA.

Questions de domaine – Test de l'Utilisateur dans des Conditions Contrôlées

(par Nombre d'Incidents)

Était-ce un test ou une démonstration d'un système d'IA réalisé par des utilisateurs dans des conditions opérationnelles ?

L'augmentation de la participation des utilisateurs (autres que les développeurs, producteurs, ou chercheurs) dans les tests de systèmes d'IA peut conduire à des dommages. Les tests dans des conditions opérationnelles tentent de représenter de manière stricte les conditions du monde réel et les utilisateurs finaux, donc les tests dans des conditions opérationnelles augmentent généralement le risque de dommage pour les personnes, organisations, propriétés, institutions ou l'environnement.

Questions de domaine – Test de l'Utilisateur dans des Conditions Opérationnelles

(par Nombre d'Incidents)