関連インシデント

州レベルのオーストラリア情報コミッショナーは、ビクトリア州の児童保護機関に対し、生成AIサービスの使用を停止するよう命令した。情報コミッショナーによると、機関のスタッフは、性犯罪者であるとされる両親と一緒に暮らし続けた場合に特定の子供が直面する可能性のあるリスクに関するレポートを作成するために、大量の個人情報をChatGPTに入力した。
情報コミッショナーの説明によると、スタッフはChatGPTを使用することで、子供へのリスクを軽視することになった。たとえば、レポートでは、父親が性的目的で使 用していた子供の人形を、子供に「年齢相応のおもちゃ」を持たせるための両親の努力として描写することになった。情報コミッショナーは、児童保護機関に対し、職員が AI を使用できないようにするため、2024 年 11 月 5 日までにインターネット プロトコル ブロッキングおよび/またはドメイン ネーム サーバー ブロッキングを実施するよう命じました。これには、検索エンジンの機能である生成 AI ツールは含まれません。つまり、職員は Google の AI 概要などのツールに引き続きアクセスできます。
情報コミッショナーの命令で示されているように、機関による ChatGPT の使用は「GenAI に関連するプライバシー リスクの非常に現実的な例」です。これらのツールに依存して個人情報を不適切に使用した場合に発生する可能性のある害が加わります。 AIツールは本質的に確率的であるため、誰かがプロンプトとして「遅かれ早かれ…」などと入力した場合、AIは「決して」のような出力で文を終えることになる。「決して」がユーザーが期待していた結果である可能性が高いためだ、とMediaNamaの創設者兼編集者であるNikhil Pahwa氏は今年初めのイベントで説明した。
つまり、AIは回答を出す際に正確さを求めているのではなく、ユーザーが望むことに基づいて決定を下しているだけである。そのため、政府機関がAIモデルに頼ると、特に機密性の高い個人情報や脆弱な個人が関与する重大な状況を扱う場合、その決定は不正確であったり、潜在的に有害であったりする可能性がある。これに加えて、政府によるAIツールの使用は プライバシーのリスクももたらす。政府機関が人々の個人情報を AI チャットボットに公開した場合、この情報 (オーストラリアのケースでは子供の個人情報など) は AI 企業のトレーニング データセットの一部になります。
昨年 11 月、オーストラリアは公共部門が AI ツールを使用する方法に関するガイドラインを発表しました。このガイドラインでは、2 つの黄金律が強調されています。
- 公共サービス機関は、AI モデルに入力する情報はすべて公開される可能性があると想定する必要があります。機密情報、個人情報、またはその他の機密情報を公開しないでください。
- 公共サービス機関は、アドバイスと決定について説明、正当化、および責任を取ることができる必要があります。
これに加えて、オーストラリア政府は、公共サービス機関が AI モデルに基づいて決定を行う場合はそれを明確にする必要があることも提案しました。また、AI ツールに存在するバイアスを認識し、AI によって生成された出力に依存する場合は、決定が公正でコミュニティの期待に応えるものであることを保証するプロセスを導入する必要があります。同様に、ニュージーランドも公共サービス機関に対し、機密データに生成AIを使用しないよう勧告している。また、公共サービス機関のネットワーク外にいる場合は、GenAIツールに個人データを入力しないように勧告している。
インドも、2022年に責任あるAIの原則を 強調したディスカッションペーパーを発表した。このペーパーでは、AIシステムは信頼性が高く、利害関係者を保護するための安全策が組み込まれていなければならないとしている。また、同様の状況にある人々を平等に扱い、個人を差別してはならない。さらに、この原則では、すべての個人の個人データは安全に保護され、許可された担当者のみがアクセスできる必要があると規定されている。しかし、この原則にはインドの政府機関に対する具体的な指示が欠けており、この国の政策枠組みに欠陥があることが浮き彫りになっている。