Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6687

Loading...
AIによる就職面接を受ける人々は差別のリスクに直面するとオーストラリアの研究が警告
theguardian.com · 2025

AIリクルーターによる面接を受ける求職者は、訛りのある話し方をしたり、障害を抱えていたりすると、差別を受けるリスクがあると、新たな研究が警告している。

今月、採用プロセスの一環として、時折不具合のあるAIビデオ面接官とやり取りする求職者の動画がTikTokで広く共有された。

AIビデオ採用の利用は近年増加している。多くの企業が利用しているAI採用ソフトウェア企業HireVueは2月、世界4,000社の企業を対象に調査を実施した結果、採用におけるAI利用率が2024年の58%から2025年には72%に上昇すると報告した。

オーストラリアの研究(今月発表)では、オーストラリアの企業におけるAI利用率は約30%と大幅に低いものの、今後5年間で増加すると推定されている。

しかし、メルボルン大学ロースクールの研究者であるナタリー・シアード博士による論文は、AI採用システムを用いて候補者を選考・絞り込むことは、AIモデルの訓練に使用されたデータセットが限られていることに起因するバイアスによって、応募者を差別するリスクがあると警告している。

シアード博士は、この研究でオーストラリアの人事担当者18名に、採用におけるAIの活用についてインタビューを行った。そのうち13名が自社でAI採用システムを使用しており、最も多く利用されているツールは履歴書分析システムで、次いでビデオ面接システムだった。

シアード博士は、限られた情報に基づくデータセットは、しばしば国際的なデータよりもアメリカのデータを優先するため、AIシステムにバイアスが生じるリスクがあると述べている。例えば、シアード博士の研究で取り上げられたあるAIシステム企業は、求職者訓練データのうちオーストラリアまたはニュージーランドからのものはわずか6%であり、訓練データに含まれる求職者の36%は白人であると述べた。

論文によると、同社は米国在住の英語話者の文字起こしにおける単語誤り率は平均10%未満だと述べている。しかし、他国のアクセントを持つ英語を母国語としない人を対象にテストを行うと、誤り率は12~22%に上昇する。後者の誤り率は中国出身の英語を母国語としない人の場合である。

「トレーニングデータは、システムが製造された国から取得されます。多くのシステムは米国で製造されているため、オーストラリアの人口統計グループを反映していません」とシアード氏は述べた。

研究参加者はシアード氏に対し、英語を母国語としない人や発話に障害のある人は、自分の言葉が正しく文字起こしされず、採用アルゴリズムによって高く評価されない可能性があると述べた。

このため、参加者のうち2人は、ソフトウェアベンダーに対し、アクセントのある候補者に不利な影響を与えないことを保証してほしいと要請した。シアード氏は、AIは「アクセントの理解が非常に優れている」という保証は受けたものの、それを裏付ける証拠は提示されなかったと述べた。

シアード氏は、採用候補者、採用担当者、そして雇用主にとって、使用されたAI面接システムに関する透明性はほとんど、あるいは全くなかったと述べた。

「これが問題です。人間によるプロセスであれば、採用担当者にフィードバックを求めることができますが、採用担当者はなぜその決定が下されたのかさえ知らず、フィードバックを与えることができないのです」と彼女は述べた。

「これは求職者にとって問題です…責任の所在を特定するのは非常に困難ですが、これらのシステムによる差別に対しては、ベンダーと雇用主が法的責任を負うことは間違いありません。」

シアード氏によると、オーストラリアではAIによる差別に関する訴訟はまだ起こっておらず、差別事例が発生した場合はまずオーストラリア人権委員会に持ち込む必要があるという。

2022年、連邦功績保護コミッショナーは、サービス・オーストラリアが前年に11件の昇進決定を覆していたことを明らかにした明らかにした。これは、同庁が採用専門業者にプロセスを外注し、心理測定テスト、アンケート、自己録画ビデオ応答などのAI自動選考技術を使用していたためである。

選考プロセスは「最も優秀な候補者を選考するという主要目的を必ずしも達成していなかった」ことが判明した。

シアード氏は、アルバニー出身の労働党政権が再選考された場合、AIの使用を規制するための具体的なAI法の制定を検討し、AIに基づく差別を防ぐために既存の差別法を強化すべきだと述べた。

この記事は2025年5月14日に修正されました。以前のバージョンでは、求職者がアメリカ英語のアクセントを持っていない場合、差別を受けるリスクがあると誤って記載されていました。以前のバージョンでは、23 人の人事担当者が面接を受け、トレーニング データ内の求職者の 33% が白人であるとも誤って記載されていました。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd