Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6797

関連インシデント

インシデント 8116 Report
AI-Powered Transcription Services Allegedly Leak Confidential Workplace Discussions

Loading...
エージェント型AI転写ツールが健康情報データ漏洩を引き起こす
teresascassa.substack.com · 2026

オンタリオ州情報プライバシーコミッショナー(IPC)事務局からの最近の通知は、急速に進化し、広く利用可能な人工知能(AI)対応ツールが、組織にとって重大なプライバシーリスクをもたらす可能性があることを浮き彫りにしています。

問題の通知は、IPCにデータ侵害を報告した匿名の病院(以下「病院」)宛ての書簡でした。書簡では、侵害の内容を検証し、病院に対する一連の勧告を示し、2026年1月下旬までに勧告への対応について病院の最新情報の提出を求めていました。この侵害は、プライバシー法が厳格な医療分野で発生しましたが、教訓は他の分野にも広く当てはまります。

この侵害は、現在多くの医師が医師と患者のやり取りを記録するために日常的に使用している種類の転写ツールの使用に関連していました。 AI Scribeツールは、医師と患者のやり取りを記録・書き起こし、電子カルテへの添付に適した要約を作成します。これらの機能は、医師の記録作成や事務作業の負担を軽減することを目的としています。現在、業務に特化したAI Scribeツールは数多く市販されていますが、今回のケースでは、幅広い用途を想定して設計された、広く普及しているOtter.ai文字起こしツールが使用されました。

この侵害は、Otter.aiツールがダウンロードした医師のAIエージェントとして動作していたため、複雑化していました。AIエージェントは、ある程度の自律性を持って一連のタスクを実行できます。今回のケースでは、このツールは様々なコミュニケーションプラットフォームやユーザーのデジタルカレンダー(Outlookなど)と統合できます。基本的に、Otter.aiはユーザーのデジタルカレンダーをスキャンし、予定されている会議に参加できます。そして、会議の書き起こしと要約を作成します。また、要約と書き起こしの両方を他の会議参加者と共有することもできます。これらはすべて、ユーザーが直接介入することなく実行されます。

当該医師は、情報漏洩が報告された病院を退職してから1年以上経過した後に、Otter.aiをダウンロードし、カレンダーへのアクセスを許可していました。当該医師は、その病院在籍中、院内連絡に病院のメールではなく個人用メールを使用していたため、2023年の退職および病院のメールアカウントの無効化後も、会議招待リストから個人用メールが削除されていませんでした。2024年9月にOtter.aiをダウンロードし、デジタルカレンダーへのアクセスを許可した時点でも、病院から肝臓内科の回診への招待が届いていました。医師は退職後、これらの回診には出席しませんでしたが、AIエージェントは出席しました。AIエージェントは2024年9月の会議に出席し、議事録と会議要約を作成し、会議招待状に記載されていた65人全員に、要約と全文議事録へのリンクをメールで送信しました。この情報漏洩は、メール受信者の1人または複数人によって病院に報告されたものと推定されます。肝臓内科の回診では7人の患者が診察を受けており、議事録と要約には患者の個人医療情報が含まれていました。

病院は、情報漏洩に対処するために直ちに措置を講じました。病院は医師へのデジタル招待状をキャンセルし、要約と記録の受信者全員に連絡を取り、不正なメールと添付ファイルのコピーをすべて速やかに削除するよう要請しました。また、全職員に通知を送り、病院の認証情報やデバイスと関連付けて未承認のツールを使用することは許可されていないことを改めて伝えました。Otter.ai を使用していた医師にも連絡し、病院とのすべてのデジタル接続を削除させました。また、Otter.ai に連絡して、会議に関連するすべての情報をシステムから削除するよう依頼するよう依頼しました。侵害の影響を受けた患者にも病院から通知がありました。今後の侵害を防ぐため、病院は未承認のスクライブツールへのオンサイトアクセスをブロックするファイアウォールを作成し、未承認ツールの使用に対処するためにトレーニング資料を更新し、「情報および情報技術の適切な使用」に関するポリシーを改訂しました。改訂されたポリシーでは、病院が承認した IT リソースのみを使用することの重要性が強調されています。また、会議の参加者リストを定期的に確認し、AI ツールや自動エージェントが含まれていないことを確認することも推奨されています。

これらの措置に加えて、IPCはさらなる勧告を行いました。その中には、病院自身がOtter.aiに連絡し、保管している可能性のある患者情報の削除を依頼することが含まれていました。65人のメール受信者のうち12人はメールの削除を確認しておらず、IPCは病院に対し、削除が確実に行われたことを確認するためのフォローアップを勧告しました。また、病院の侵害プロトコルの更新と、職員が病院を離れる際に病院情報システムへのアクセスが「直ちに取り消される」ように、退院手続きの変更も勧告されました。OIPCはまた、すべての仮想会議において会議ロビーの使用を義務付け、権限のないAIエージェントが会議に参加できないようにすることを勧告しました。

このインシデントは、広く利用可能な生成型AIツールやエージェント型AIツールの開発に伴い、病院だけでなく多くの組織が直面している重要な課題を浮き彫りにしています。かつては職場における高度で強力なツールは雇用主によって容易に管理されていましたが、現在では従業員がそのようなツールに独自にアクセスできるケースが増えています。シャドーAIの利用は、プライバシーや情報の機密性に対する予期せぬ、あるいは検知されないリスクをもたらす可能性があるため、組織にとってますます懸念されています。急速に進化するエージェント型AIツールは、独立して動作する能力を備えているため、特に従業員がその全機能やデフォルト設定に精通していない場合、課題を引き起こす可能性があります。

医師会やプライバシーコミッショナー事務局は、医療現場におけるAIスクライブの利用に関するガイダンスの策定に着手しています(例えば、サスカチュワン州 および アルバータ州 OIPCのガイダンスを参照)。 Ontario MD は、プライバシーとセキュリティの基準を満たしていると考えられる 承認済み AI スクライブ ベンダーのリスト まで作成しました。しかし、今回採用されたツールはあらゆる状況を想定して設計されており、無料版と有料版の両方が用意されているため、この分野のリスクと課題が浮き彫りになっています。このようなツールが広く利用できることは、プライバシーとセキュリティを重視する組織にとって重要なガバナンスの問題を引き起こします。組織が独自のプライバシーとセキュリティの基準に合わせてカスタマイズされた特定のツールに加入している場合でも、従業員は他の状況で既に使用している可能性のある多くのツールにアクセスできます。従業員が既に使い慣れていて使いやすいツールを単純に使用してしまうリスクを考慮する必要があります。

より汎用的な文字起こしツールも、医療などの特定の状況向けに特別に訓練または設計されていないため、医療の分野では他のリスクをもたらす可能性があります。例えば、医療用語、処方薬名、その他の専門用語の扱いにあまり慣れていない可能性があります。そのため、転写や要約におけるエラーの発生率が高まる可能性があります。

許可されていないツールによって収集されたデータがAIシステムの学習に利用されるリスクは、プライバシーと機密性への潜在的な影響を浮き彫りにします。オンタリオ州の個人健康情報保護法 (PHIPA) では、医療管理者は患者の明示的な同意なしに個人健康情報を第三者と共有する権限がありません。この明示的な同意なしに、医療関連の転写や音声録音を使用して第三者のAIシステムを学習させることは許可されていません。一部のサービスでは、「匿名化された」情報はシステムトレーニングにのみ使用するとしていますが、「匿名化された」という用語の定義はPHIPAにおける定義とは異なる可能性があります。例えば、PHIPAでは、すべての直接的な識別子(氏名、ID番号など)を削除することは、匿名化とはみなされません。PHIPAでは、すべての直接的な識別子の削除に加えて、「状況において、単独で、または他の情報と組み合わせて、個人を識別するために利用される可能性があることが合理的に予見できる」情報も削除する必要があると規定されています。

このインシデントは、個人および業務で利用される新しい(そして進化する)テクノロジーツールが急増している状況において、機密性の高い個人情報がいかに脆弱であるかを浮き彫りにしています。組織はリスクを評価し、軽減するために迅速に行動する必要があり、そのためには、従業員との定期的なエンゲージメントとトレーニングが不可欠です。

注:Daniel Kim氏との共同研究によるAI Scribesに関する研究論文のプレプリント版はこちらでご覧いただけます。

この記事は私のブログteresascassa.caでもご覧いただけます。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd