Description: During workplace training at Bunbury Prison in Western Australia, a trainer used Microsoft's Copilot AI chatbot to generate case study scenarios. The chatbot produced a scenario that included the real name of a former employee involved in a sexual harassment case, revealing sensitive information.
Alleged: Microsoft developed an AI system deployed by Charlotte Ingham と Western Australia Department of Justice, which harmed Western Australia Department of Justice , Bronwyn Hendry と Western Australia Department of Justice senior staff members.
インシデントのステータス
インシデントID
773
レポート数
1
インシデント発生日
2024-08-20
エディタ
Daniel Atherton
インシデントレポート
レポートタイムライン
abc.net.au · 2024
- 情報源として元のレポートを表示
- インターネットアーカイブでレポートを表示
The psychosocial safety training company that used the full name of an alleged sexual harassment victim in a course at her former workplace says artificial intelligence (AI) is to blame.
Psychosocial Leadership trainer Charlotte Ingham said…
バリアント
「バリアント」は既存のAIインシデントと同じ原因要素を共有し、同様な被害を 引き起こし、同じ知的システムを含んだインシデントです。バリアントは完全に独立したインシデントとしてインデックスするのではなく、データベースに最初に投稿された同様なインシデントの元にインシデントのバリエーションとして一覧します。インシデントデータベースの他の投稿タイプとは違い、バリアントではインシデントデータベース以外の根拠のレポートは要求されません。詳細についてはこの研究論文を参照してください
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents
よく似たインシデント
Did our AI mess up? Flag the unrelated incidents