Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 4257

関連インシデント

インシデント 8381 Report
Microsoft Copilot Allegedly Provides Unsafe Medical Advice with High Risk of Severe Harm

Loading...
新しい研究論文によると、Bing / Microsoft Copilot の「AI」による医療アドバイスは、少なくとも 22% の確率で重大な危害を引き起こす可能性があるとのことです...
windowscentral.com · 2024
  • ドイツとベルギーに拠点を置く研究者らが最近、Microsoft Copilot に、よくある医療に関するさまざまな質問をした。
  • 結果を分析した結果、Microsoft Copilot が科学的に正確な情報を提供したのは 54% に過ぎなかったことがわかった。
  • また、生成された回答の 42% が「深刻な危害」につながる可能性があり、極端なケースでは 22% が死亡につながる可能性もあることがわかった。
  • これは、「AI 検索」にとってさらなる打撃となる。検索大手の Google は、ユーザーに「石を食べる」ことやピザに接着剤を焼くことを勧める提案に苦戦している。

ああ、どうやら Microsoft Copilot は、数人の死者を出すと大きな訴訟に発展するかもしれないようだ。少なくとも理論的には。

AI 検索がひどいことは周知の事実だ — 少なくとも現時点では。 Google は過去 1 年間、奇妙でエラーの多い AI 検索結果で嘲笑されてきました。最初のロールアウトでは、ユーザーに石を食べるか、ピザに接着剤を加える ことを推奨していました。先週だけでも、Twitter (X) で、Google の AI 検索が恣意的に 個人の電話番号をビデオゲーム発行元の本社電話番号としてリストした というスレッドを見ました。 Google の AI がグアムに Planet Hollywood レストランが 150 軒ある と示唆したことをあざ笑う別のスレッドを見ました。実際、Planet Hollywood は全部で 4 軒しかありません。

Microsoft Copilot に、グアムに Planet Hollywood レストランがあるかどうか尋ねました。ありがたいことに、正しい答えが返ってきました。しかし、ヨーロッパの研究者 (SciMex 経由) は、Copilot やその他の AI 検索システムを窮地に陥れる可能性のある、はるかに深刻ではるかに面白くないエラーのカタログについて警鐘を鳴らしています。

最初の「AIによる死」は、SFの殺人ロボットではなく、おそらく誤情報によるものでしょう。(画像提供:Kevin Okemwa | Windows Central)

研究論文 では、Microsoft Copilot が具体的に、米国で最も人気のある10の医療に関する質問、つまり最も処方されている薬や医薬品の約50種類について回答を求めた方法について詳しく説明しています。この研究では合計500の回答が生成され、正確性や完全性などの基準で採点されました。結果はあまり期待できるものではありませんでした。

「正確性に関しては、AI の回答は24%のケースで確立された医療知識と一致しず、3%の回答は完全に間違っていました」と報告書には書かれています。 「回答のうち、科学的コンセンサスに一致したのはわずか 54% でした。[...] 患者への潜在的な危害という点では、AI 回答の 42% が中程度または軽度の危害につながると考えられ、22% が死亡または重度の危害につながると考えられました。無害であると考えられたのは、約 3 分の 1 (36%) のみでした。」

研究者らは、もちろん、正確な医療情報を得るために Microsoft Copilot や Google AI サマリー (またはおそらくどの Web サイトでも) などの AI システムに頼るべきではないと結論付けています。医療問題について相談する最も信頼できる方法は、当然ながら医療専門家を介することです。医療専門家へのアクセスは必ずしも容易ではなく、地域によっては、場合によっては手頃な価格でさえありません。Copilot や Google などの AI システムは、質の高い医療アドバイスにアクセスできない多くの人々にとって最初の相談先になる可能性があり、そのため、危害の可能性はかなり現実的です。

Microsoft が AI ブームに乗じようとする努力は、これまでのところほとんど成果を上げていません。 Copilot+ PC シリーズは、Windows Recall 機能 に関するプライバシーに関する懸念が相次ぎ、皮肉にもこの機能自体が暗号化を強化するためにリコールされました。Microsoft は、Windows Copilot Web ラッパーの新しい UI や、Microsoft フォトの編集機能の強化など、小規模で比較的重要度の低い機能を含む一連の 新しい Copilot 機能 をほとんど宣伝することなく公開しました。

Windows と Xbox の熱狂的なファン向けの最新ニュース、レビュー、ガイド。

AI は、Bing の検索シェアが比較的低いままであることから、Microsoft が Bing に Google 検索に対する本格的な競争力を与えると期待していたきっかけにはなっていないことは周知の事実です。Google は、OpenAI の ChatGPT が自社のプラットフォームにどのような影響を与えるかを心配して頭を悩ませています。投資家たちは、サム・アルトマンのジェネレーティブ帝国に何十億ドルも注ぎ込み、それが何らかの新しい産業革命を引き起こすことを期待しています。 TikTok は、AI がその代価を払うことを期待して、何百人もの人間のコンテンツ モデレーターを排除しました。それがどうなるか見てみましょう。

AI が生成した回答の正確さに関する報告はいつも少し滑稽ですが、人々が Copilot の回答を額面通りに受け取り始めると、被害の可能性はかなり大きいと思います。Microsoft や他のプロバイダーには、「AI の回答の正確さを常に確認してください」という小さな文字がありますが、私は「そうしなければならないのなら、ここで AI の仲介者を完全に省略すればいいのでは?」と思わずにはいられません。潜在的に危険な医学的アドバイス、陰謀論、政治的誤報、またはその間のあらゆるものに関しては、Microsoft の AI 要約が注意を払わなければ、いつか深刻な危害を引き起こす可能性があるのは明らかです。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd