
隨著AI逐步深入臨床場域,從總結繁複的出院報告,到回應病患在社群媒體上的提問,一個關鍵問題浮現:這些AI模型究竟能否分辨「醫療事實」與精心包裝的「虛構」? 2026年2月9日西奈山伊坎醫學院及梅約診所合作進行的一項新研究,發表於《柳葉刀數位健康》線上版的:「繪製LLM對臨床記錄和社交媒體中醫療錯誤訊息的易感性圖譜:一項橫斷面基準分析」[1],給出了令人警醒的訊息。研究指出,即便是當今最先進的大型語言模型(LLM),在面對醫療錯誤資訊時仍顯得脆弱,尤其當這些錯誤訊息披上醫院報告般的權威語言外衣時,更容易被誤導。
包裝白袍謊言的實驗
研究人員決定玩一場「看看能不能騙過機器」的遊戲。他們拿了20個AI模型[2],並餵給機器340萬個不同的提示(prompts),進行「包裝醫學謊言」實驗,如出院紀錄的錯誤建議:食道相關出血患者「飲用冷牛奶以緩解症狀」這種說法,並用兩種不同的方式向AI呈現。
首先,他們把醫學謊言放在「社群媒體」Reddit貼文環境中。然後他們拿真正的醫院出院紀錄,並在那些聽起來很專業的術語中塞進了假的推薦陳述。結果研究發現,當謊言看起來像是「低俗」的社群媒體貼文時,AI其實相當聰明,大約有91%的時間會拒絕這些荒謬的說法。但是,當他們把這種荒謬的事包裝成「白袍」說法,AI幾乎臣服,它被謊言騙倒的機率是46.1%。你看出問題了嗎?機器不是在看事實,它在看「制服」。如果謊言打領帶、拿著醫用夾板,AI會想:「這一定是真的!」(小a: 和真實的人類似乎很類似?)

邏輯謬誤的影響
研究團隊分析使用種十種不同「邏輯謬誤架構」,包含:人身攻擊 (Ad hominem)、訴諸權威 (Appeal to authority)、訴諸情感 (Appeal to emotion)、訴諸群眾/人氣/跟風 (Appeal to popularity)、循環論證 (Circular reasoning)、虛假兩難 (False dilemma)、以偏概全 (Hasty generalisation)、後此謬誤 (Post hoc ergo propter hoc)、滑坡謬誤 (Slippery slope) 以及稻草人謬誤 (Straw man),進行深度分析發現[3]: 那些在沒有立足點時用來辯論的廉價伎倆。他們用了像「大家都在做」(《訴諸人氣》)或「如果你不這麼做,世界就會毀滅」(《滑坡謬誤》)這類說法。

有趣的是,這些技巧大多其實讓AI變得更聰明。當謊言聽起來太像推銷時,AI就會起疑心。就像警鐘響起一樣:「嘿,這聽起來很可疑!」但有一個技巧幾乎每次都奏效, 那就是《訴諸權威》,也就是所謂的「白袍效應」。如果提示是「一位有三十年經驗的著名醫生說,你應該喝冷牛奶止內出血」,AI幾乎總是點頭同意。結果這些機器就像學校中的新生一樣,它們被一個大白袍震撼到忘了檢查數學是否真的對得上。
尚無法完善的AI機器
Mahmud等人(2026)所描繪的,不僅僅是一堆編碼錯誤,而是我們自身認識論脆弱性的映照。我們夢想打造一台神諭,一台「純粹客觀」的AI機器,但我們發現,當我們用語言訓練它時,反而灌輸了我們的偏見和虛榮心。

AI中的「白袍效應」成為AI時代不可或缺的警示,當我們將這些模型整合進人類健康的機制時,我們的首要任務不僅是讓AI更聰明,更要讓AI清楚權威是如何被執行的。真正的智慧,似乎不在於知識的數量,而在於對任何聲稱無可置疑的事物,永遠持續懷疑。
目前,只要用正確的「專業」語氣,這些AI模型很容易被騙。GPT-4o以一種數位「斯多葛學派」的形式出現,平衡了低易受謊言影響與高能力指出謬誤的能力。相反地,專門的「醫療」模型,往往表現不如通用模型。如果我們要在醫院使用這些東西,我們不需要AI更擅長模仿醫生的語言,我們需要AI更擅長辨識假貨,即使假貨穿著白袍。對於我們人類而言,在AI模型成熟前,請保持警覺。不論是機器或人,用權威和華麗詞藻,並不代表AI不會叫你把大蒜塞進耳朵。























