CSETv1 チャート

AIIDのCSET AI危害分類法はCSETインシデント分類法の第二版です。AIインシデントに含まれる危害、組織、技術、発生状況を特徴づけます。以下の図はCSET AI危害分類法から選択されたフィールドを示します。それぞれのフィールドの詳細についてはここで確認してください。ただし、それぞれの図の上に簡単な説明があります

この分類法はAI危害についてのCSETによる定義を示します

AI危害には適切に判定するとAI危害と判断できるようになる4つの要素があります。これらのキー要素によって危害と非危害、AI危害と非AI危害の区別が可能になります。AI危害については次が成り立たなければいけません

  • 1) 組織は以下のことを被る
  • 2) 危害が発生もしくは危害が発覚
  • 3) 上記は以下の振る舞いの結果と直接的に関連づけることが可能
  • 4) AIシステム.

この4つの要素がすべて存在しなければ、対象はAI危害とは言えません

AIIDに含まれる全てのインシデントがこのAI危害の定義を満たすわけではありません。以下の棒グラフはすべてのAIIDインシデントとCSETのAI危害定義を満たすインシデント両方の注釈付きの結果を示します。

CSETは下線部について特別な定義を作成しましたが、それは他の組織とは異なる可能性があります。そのため、他の組織はある特定のAIインシデントがAI危害かどうかについて異なった評価を行う可能性があります。CSETのAI危害についての詳細についてはここを参照してください

すべてのインシデントは2人のCSETアノテーターによって独立して分類されます。アノテーションはピアレビューされ、最終的に公開に先立って品質管理のためにランダムで選択されます。この厳密なプロセスにも関わらず、誤りは起こり得るため、読者が閲覧中にエラーに遭遇した場合には を促されます

インシデントはCSETのAIシステムの定義を満たすシステムを含んでいますか?

AIシステム

(インシデント数順)

差別的な扱いがあった場合、その基準は何ですか?

保護された特性に基づく差別的な扱い:この特別な利益の無形の危害はAIに関するバイアスと公正性の問題をカバーします。ただし、バイアスは保護された特性を持つグループと関連している必要があります

差別的な扱いの基準

(インシデント数順)

すべてのAIIDインシデント

カテゴリカウント
人種9
性別8
出身国、市民権、移民ステータス4
性的指向または性自認2
年齢1
障害1
財政的手段1
地理1
イデオロギー1
宗教1
なし

CSET AI危害定義

カテゴリカウント
人種6
性別5
出身国、市民権、移民ステータス3
性的指向または性自認1
障害1
イデオロギー1
宗教1
年齢
財政的手段
地理
なし

インシデントはどのセクターで発生しましたか?

導入分野

(インシデント数順)

すべてのAIIDインシデント

カテゴリカウント
情報通信18
運輸・保管11
芸術・娯楽及びレクリエーション6
法執行5
卸売・小売5
管理・支援サービス4
専門、科学、技術サービス4
公共行政4
保健衛生・社会事業3
製造業3
教育2
宿泊・飲食サービス1
その他1

CSET AI危害定義

カテゴリカウント
情報通信11
運輸・保管7
法執行3
公共行政3
芸術・娯楽及びレクリエーション2
管理・支援サービス2
卸売・小売1
専門、科学、技術サービス1
宿泊・飲食サービス1
保健衛生・社会事業
製造業
教育
その他

インシデント発生時点で技術はどの程度自律的に動作していましたか?

自律性は、AIが独立して操作する能力です。自律性のレベルは、AIが独立した決定を下すかどうか、および人間の監視の程度に基づいて異なります。自律性のレベルは、AIが受け取る入力の種類に依存しません。それが人間によって生成されたものであるか、機械によって生成されたものであるかにかかわらずです。
現在、CSETは3つのレベルの自律性を注釈付けしています
  • レベル1:システムは同時に人間の監視なしで独立して動作します
  • レベル2:システムは独立して動作しますが、人間が監視しており、システムが決定を下すかアクションを起こす場合、人間は行動を積極的に観察し、リアルタイムでシステムをオーバーライドできます
  • レベル3:システムは人間に入力と提案された決定またはアクションを提供し、人間はAIの指示に従うことを積極的に選択します

自律性レベル

(インシデント数順)
  • 自律1(完全自律):システムは同時に人間の監視、対話、介入なしに独立して動作しますか?
  • 自律2(人間がループ):システムは独立して動作しますが、人間が監視しており、システムが決定を下すかアクションを起こす場合、人間は行動を積極的に観察し、リアルタイムでシステムをオーバーライドできますか?
  • 自律3(人間がループ):システムは人間に入力と提案された決定を提供し、

インシデントは物理的オブジェクトを持つドメインで発生しましたか?

物理的な物体が関係する事故では、損害や傷害が発生する可能性が高くなります。 ただし、物理ドメインで動作しない AI システムでも、次のような問題が発生する可能性があります。 危害。

ドメインの質問 – 物理的オブジェクト

(インシデント数順)

インシデントはエンターテイメント業界で発生しましたか?

エンターテイメントに使用される AI システムには、物理的なオブジェクト 関与する可能性は低く、 したがって、損傷、傷害、または紛失に関連する可能性は低いです。 さらに、 エンターテイメ トからの真実の情報に対する期待が低くなり、有害になる コンテンツが含まれる可能性は低くなります (ただし、可能性はあります)。

ドメインの質問 – エンターテイメント業界

(インシデント数順)

インシデントはAI自体ではなくトレーニングデータのレポート、テスト、または研究についてでしたか?

AI のトレーニングと導入データの品質により、害やリスクが生じる可能性があります AI システムで。 ただし、データに問題があるからといって、必ずしも AI が問題を解決するとは限りません。 危害を引き起こす、または危害を及ぼすリスクを増大させる。 開発者またはユーザーが データに関する問題を軽減するための技術とプロセスを適用します。

ドメインの質問 – データのレポート、テスト、または研究

(インシデント数順)

報告されたシステム(AIの関与が不明でも)はユーザーに導入または販売されましたか?

ドメインの質問 – 導入済み

(インシデント数順)

これは開発者、生産者、または研究者(ユーザーではない)によるAIシステムのテストまたはデモンストレーションで、制御された状況下で行われましたか?

開発者、プロデューサー、または研究者による、管理された環境での AI テ トまたはデモンストレーション 人、組織、財産が危険にさらされる可能性が低い環境です。 施設や自然環境に害を及ぼす可能性があります。 制御された環境では、 これには、隔離されたコンピューティング システム、規制のサンドボックス、または 自動運転車の試験場。

ドメインの質問 – 生産者による制御された状況下でのテスト

(インシデント数順)

これは開発者、生産者、または研究者(ユーザーではない)によるAIシステムのテストまたはデモンストレーションで、運用状況下で行われましたか?

一部の AI システムは、運用環境でテストまたはデモンストレーションを受けます。 運用環境でのテストは、システムが展開される前に行われます。 利用者。 ただし、管理された環境、運用環境と比較すると、 AI システムの使用に影響を与える現実世界の状況を厳密に表現するように努めます。

ドメインの質問 – 生産者による運用状況下でのテスト

(インシデント数順)

これはユーザーによるAIシステムのテストまたはデモンストレーションで、制御された状況下で行われましたか?

場合によっては、展開前にユーザーがテストまたはデモンストレーションを実行することがあります。 AIシステム。 ユーザーの関与 (開発者、プロデューサー、またはユーザーではない) 研究者)、たとえ AI システムが安全であったとしても危害が発生する可能性が高まります。ユーザーはあまり慣れていない可能性があるため、制御された環境でテストされています。 AI システムの機能または動作。

ドメインの質問 – ユーザーによる制御された状況下でのテスト

(インシデント数順)

これはユーザーによるAIシステムのテストまたはデモンストレーションで、運用状況下で行われましたか?

ユーザー(開発者、プロデューサー、研究者ではなく)の関与が増加します AI システムがテストされている場合でも、危害が発生する可能性があります。 相対的 管理された環境から運用環境までを厳密に表現しようとします。 AI システムの使用に影響を与える現実世界の状況とエンドユーザー。 したがって、運用環境でのテストは通常、害を及ぼすリスクが高まります。 人、組織、財産、制度、または環境。

ドメインの質問 – ユーザーによる運用状況下でのテスト

(インシデント数順)