在醫療科技日新月異的今天,人工智慧(AI)正以前所未有的速度席捲各大醫院。從輔助判讀 X 光片到預測疾病風險,AI 似乎成為了醫療人員的「神隊友」。然而,當我們沉浸在科技帶來的便利與高效時,是否忽略了隱藏在演算法背後的致命風險?

國際權威的非營利醫療研究機構 ECRI,每年都會發布《十大醫療科技危害》(Top 10 Health Technology Hazards)報告,這份報告被視為全球醫療機構的「病人安全風向標」。觀察這幾年的榜單變化,我們會發現一個令人不寒而慄的趨勢:科技帶來的最大威脅,已經從「硬體失效」全面轉向了「AI 與演算法失控」。
Top 10 Health Technology Hazards for 2026 Executive Brief
危機的演進:從「雲端資安」到「AI 決策失誤」
回顧 ECRI 近年的報告,我們可以清晰看見醫療科技風險的演進軌跡:
- 2023年: 榜單新增了「基於雲端的臨床系統網路安全風險」。隨著醫療資料大量上雲,駭客攻擊與資料外洩成為首要威脅。
- 2024年: 危機開始深入醫療核心,報告首度將「使用人工智慧功能協助醫療判斷,可能導致醫療決策不當」列入危害榜單。
- 2025年: 短短一年內,上述「AI 導致決策不當」的風險急遽惡化,直接飆升至十大危害的第一名。這顯示在臨床現場,過度依賴 AI 或 AI 模型的誤判,已實質威脅到病患的生命安全。
2026 最大警訊:大語言模型(LLM)的「幻覺」與資安風暴
最值得警戒的是,根據 ECRI 最新的 2026 年趨勢預測,醫療科技風險已進一步轉向:「AI 大語言模型應用造成錯誤結果、資訊系統中斷與醫療資安」。
自從 ChatGPT 等大語言模型(LLM)爆紅後,許多醫療機構與新創公司紛紛將其導入行政流程,甚至嘗試用於初步問診或整理病歷。然而,LLM 存在一個致命的弱點——「幻覺(Hallucinations)」。這類生成式 AI 為了給出看似合理、通順的答案,有時會「無中生有」捏造出錯誤的醫學建議或不存在的參考文獻 。如果在臨床決策中盲目採信這些由 LLM 生成的錯誤結果,將可能導致嚴重的誤診或用藥錯誤。此外,高度依賴這些新興的 AI 資訊系統,一旦遭遇系統中斷或駭客鎖定攻擊,整個醫療院所的運作可能瞬間癱瘓。
全球與台灣的應對之道:邁向「負責任的 AI」
面對 AI 帶來的全新病人安全挑戰,國際間的監管機構已開始踩下煞車。以美國為例,2026 年初已有州議會推動立法,明文規定「醫療決策必須由具備資格的人類做出,而非機器」,甚至推動《聊天機器人提供者責任法案(Chatbot Provider Liability Act)》,將醫療用聊天機器人視為產品,並要求其承擔嚴格的法律責任 。
將視角拉回台灣,衛生福利部也早已意識到這場科技風暴的雙面刃效應。為了確保 AI 在醫療領域能「聰明且負責」地運作,衛福部於 2025 年正式推動了「負責任 AI 執行中心」計畫,並補助多家醫療機構打造可信賴的智慧醫療守門機制 。這項計畫的核心在於建立制度化的標章認證,強化 AI 產品在上市後的監測與透明度評估,確保科技的發展不會凌駕於病人權益之上 。
結語:科技是輔助,人類才是最終防線
ECRI 的報告並不是要我們因噎廢食、拒絕 AI,而是敲響了一記響亮的警鐘:在醫療領域,沒有任何演算法可以完全取代人類的批判性思考。
未來的智慧醫院,不只需要最頂尖的 AI 設備,更需要具備「AI 識讀能力」的醫療團隊,以及嚴謹的風險控管機制。當醫療體系在擁抱大語言模型與自動化科技的同時,唯有時刻將「病人安全」置於首位,讓醫師在決策迴圈中保持絕對的主導權(Human-in-the-loop),我們才能真正享受科技帶來的紅利,而非淪為演算法失控下的犧牲品。















