在AI、機器學習的領域裡, 我們常常需要評估訓練模型的好與壞, 通常我們關注的是準確率, 其中還有兩個容易被搞混的名詞:
• Precision(精確率)
• Recall(召回率)為了搞懂這些名詞, 我們將以2020年發生的Covid-19來舉例說明, 幫助需要的朋友快速理解兩者差異。
🧪 Precision(精確率): 陽性結果有多少是真的
模型判斷為陽性的人, 有多少人是真的確診?
白話一點來說就是「我選的人,有多少是對的」。
快篩案例
• 10個快篩陽性。
• 8個確診。
• 2個沒確診。
實際推演
• 公式: Precision = TP (真陽性)/ (TP(真陽性) + FP(假陽性))
• 確診機率: 80% = 8確診/(8確診 + 2沒確診)

👉 解讀:如果你快篩陽性,有 8 成機率真的確診。
🧲 Recall(召回率):確診的人有多少被抓出來?
在所有「真的確診」的人裡,有多少被快篩檢測出來。
白話一點來說就是「對的人, 我選了多少」。
快篩案例
• 實際上10個確診。
• 快篩檢測出5個人為陽性, 但漏掉了5個人。
實際推演
• 公式: Recall = TP (快篩陽性)/ (TP(快篩陽性) + FN(漏掉的人數))
• 召回率: 50% = 5快篩陽性/(5快篩陽性+5漏掉的人數)

👉 解讀:快篩能找出 50% 的確診者,但還是有一些會漏掉。
⚖️ Precision vs Recall:快篩的兩難
- 高 Precision(精確率高)
- 被判定陽性的人,幾乎都是真的確診。
- 缺點:容易漏掉很多確診者(Recall 低)。
- 比喻:只在很確定的情況下才判定「陽性」。
- 高 Recall(召回率高)
- 幾乎所有確診者都能被抓到。
- 缺點:會有不少假陽性(Precision 低)。
- 比喻:寧可誤判,也不要漏掉確診者。
📊 在快篩的真實情境裡,我們常常需要在「不要漏掉病人」和「不要誤判健康人」之間找到平衡。
🧮 F1-score:平衡的指標
既然 Precision 和 Recall 會拉扯,那能不能有個平衡的指標呢?
答案是F1-score
F1 Score的公式
F1 = 2 × (Precision × Recall) / (Precision + Recall)
快篩案例
F1 = 2 x (80% x 50%) / (80% + 50%) ~= 62%
📊 混淆矩陣(快篩版本)
常見的視覺化方式就是「混淆矩陣」,快篩的例子可以這樣表示:

📌 結語
在疫情控制中,通常會優先考慮 Recall,因為漏掉確診患者比誤判更危險! 因此Precision與Recall通常是一個取捨的決策, 需要根據真實的情境來做選擇, 並沒有絕對的對與錯, 我們只要習慣帶入公式, 常常決策分析,最終一定能夠選擇出最適合場景的策略。
👉 下次再看到這兩個 AI 名詞,你就可以用「快篩陽性」這個生活案例馬上聯想到它們的意義了!


















