Skip to Content
logologo
AI Incident Database
Open TwitterOpen RSS FeedOpen FacebookOpen LinkedInOpen GitHub
Open Menu
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる
発見する
投稿する
  • ようこそAIIDへ
  • インシデントを発見
  • 空間ビュー
  • テーブル表示
  • リスト表示
  • 組織
  • 分類法
  • インシデントレポートを投稿
  • 投稿ランキング
  • ブログ
  • AIニュースダイジェスト
  • リスクチェックリスト
  • おまかせ表示
  • サインアップ
閉じる

レポート 6155

Loading...
研究によると、手術中にAI支援を受けた医師は、自力で異常を発見する能力が20%低下し、過度の依存に対する懸念が高まっている。
fortune.com · 2025
  • 今月、Lancet Gastroenterology & Hepatology誌に掲載された研究によると、**大腸内視鏡検査中にAI支援ツールを導入された内視鏡医は、ツールの使用を中止した後、異常発見率が低下した。この研究を実施したMarcin Romańczyk博士は、この結果は驚きであり、発見率の低下はAIへの過度な依存が一因ではないかと推測している。人命に関わる航空業界など、極めて重要な分野では、専門家が安全性を犠牲にして自動化に過度に依存しているという証拠がこれまでにも示されている。

人工知能(AI)は職場の生産性を向上させる有望な手段かもしれないが、技術に過度に依存すると、専門家自身のスキルを磨くことが難しくなる可能性がある。より具体的には、AIのせいで一部の医師が定期検診で異常を発見する能力が低下している可能性があることが新たな研究で明らかになり、専門医がAIに過度に依存することへの懸念が高まっている。

今月発行のLancet Gastroenterology & Hepatology誌に掲載された研究によると、AI支援システムの有無にかかわらず大腸内視鏡検査を受けた患者1,443名を対象に調査したところ、AI支援システムを導入した内視鏡医によるポリープ候補の検出率は、導入当初は28.4%だったのに対し、導入当初のAIツールへのアクセスを停止した後は22.4%に低下し、検出率が20%低下したという。

AI支援システムを使用しなくなった医師が大腸ポリープをそれほど多く検出しなくなったことは、ポーランドのティヒにあるH-T.メディカルセンターの消化器内科医で、この研究の著者であるMarcin Romańczyk医師にとって驚きだった。この研究結果は、AIへの過度の依存によって生じる潜在的な怠惰性だけでなく、医療従事者と長年のアナログ研修の伝統との関係の変化にも疑問を投げかけています。

「私たちは医学を書物や指導者から学びました。彼らを観察していました。彼らは私たちに何をすべきかを教えてくれました」とロマンチク氏は述べています。「そして今、人工物が何をすべきか、どこを見るべきかを示唆していますが、実際には私たちはその特定のケースでどのように行動すべきか分かっていないのです。」

手術室や診療所でのにおけるAIの利用増加に加え、職場における自動化の急増は、職場のパフォーマンス向上への大きな期待をもたらしています。ゴールドマン・サックスは昨年、AI技術によって生産性が25%向上する可能性があると予測しました。しかし、新たな研究では、AIツールの悪影響を考慮せずに導入することの落とし穴についても警告されています。今年初めにMicrosoftとカーネギーメロン大学が実施した調査では、調査対象となった知識労働者において、AIは作業効率を向上させた一方で、コンテンツへの批判的関与を低下させ、判断力を衰えさせていることが明らかになりました。

ロマンチク氏の研究は、人間が自身のスキルセットを損なうことなくAIを活用する能力を疑問視する研究の増加に貢献するものです。彼の研究では、AIシステムが異常と思われる部位を緑色のボックスで囲むことで、大腸ポリープの特定を支援しました。確かに、ロマンチク氏と彼のチームは、内視鏡医がなぜこのような行動をとったのかを測定しました。なぜなら、彼らはこのような結果を予期していなかったため、なぜそうなったのかに関するデータを収集していなかったからです。

ロマンチク氏は、内視鏡医が緑色のボックスを探すことに慣れすぎて、その技術がなくなったことで、専門医は特定の領域に注意を払うきっかけを失ってしまったのではないかと推測しています。彼はこれを「Google マップ効果」と呼び、研究結果を紙の地図の時代からGPSの時代への移行に伴うドライバーの変化に例えました。20年前は自分でルートを見つけなければならなかったのに、今では多くの人が最も効率的なルートを示すために自動化に頼っています。

AIにおける牽制と均衡

自動化によって人間の重要なスキルが衰退するという現実世界の結果は、すでに十分に明らかになっています。

2009年、リオデジャネイロ発パリ行きのエールフランス447便が大西洋に墜落し、搭乗していた乗客乗員228人全員が死亡しました。調査の結果、機体の自動操縦装置が切断され、氷の結晶が対気速度センサーを妨害し、機体の自動化された「フライトディレクター」が不正確な情報を提供していたことが判明しました。しかし、乗務員はこのような状況下で手動操縦を行うための適切な訓練を受けていなかったため、適切な修正を行う代わりに、自動操縦装置の誤った指示に従ってしまった。エールフランスの事故は、人間が適切な訓練を受けず、航空機の自動機能に頼っていた数件の事故の一つである。

「コンピューターが解釈してくれなければ、パイロットが飛行機の動きを理解できない状況が生まれている」と、航空安全財団のウィリアム・フォス会長はエールフランスの事故調査の際に述べた。 「これはエアバスやエールフランスに限った問題ではありません。業界全体が直面しなければならない新たな訓練上の課題なのです。」

ペンシルベニア大学ウォートン校のオペレーション、情報、意思決定の准教授であるリン・ウー氏によると、これらの事故は、特に人命が危険にさらされる重要な部門において、厳しい試練の時期をもたらすという。産業界はテクノロジーを積極的に活用すべきだが、人間がそれを適切に導入できるようにする責任は、機関にあるとウー氏は述べた。

「重要なのは、航空の歴史とそれ以前の自動化の世代から、AIが間違いなくパフォーマンスを向上させることができることを学ぶことです」とウー氏はフォーチュン誌に語った。「しかし同時に、AIが機能していないときには、どのように引き継ぐかを知っておくことができるように、これらの重要なスキルを維持する必要があります。」

同様に、ロマンチク氏も医療におけるAIの存在を否定していない。

「AIは、好むと好まざるとにかかわらず、私たちの生活の一部となるでしょう。あるいは、すでに私たちの生活の一部となっています」とウー氏は述べた。「私たちはAIが悪いとか、AIを使うのをやめろと言っているわけではありません。むしろ、私たちの脳内で何が起こっているのか、AIがどのように影響を与えているのか、どうすれば効果的に活用できるのかを、私たち皆で探究すべきだと言っているのです。」

専門家やスペシャリストが、業務の効率化のために自動化を活用し続けたいのであれば、重要なスキルセットを維持することが重要だとウー氏は述べた。AIは人間のデータに基づいて学習するため、学習に欠陥があれば、その出力にも欠陥が生じることになる。

情報源を読む

リサーチ

  • “AIインシデント”の定義
  • “AIインシデントレスポンス”の定義
  • データベースのロードマップ
  • 関連研究
  • 全データベースのダウンロード

プロジェクトとコミュニティ

  • AIIDについて
  • コンタクトとフォロー
  • アプリと要約
  • エディタのためのガイド

インシデント

  • 全インシデントの一覧
  • フラグの立ったインシデント
  • 登録待ち一覧
  • クラスごとの表示
  • 分類法

2024 - AI Incident Database

  • 利用規約
  • プライバシーポリシー
  • Open twitterOpen githubOpen rssOpen facebookOpen linkedin
  • e1b50cd