⭐ 事件
研究者發現分類器:
👉 狼 vs 哈士奇 準確率很高
但用 saliency map 看:👉 模型其實在看「雪」
原因:
👉 狼照片多在雪地
👉 哈士奇照片多在室內
🎯 意義
這案例成為:
👉 dataset bias 經典教材
結論:
AI 可能在解錯問題,但仍給對答案
這是機器學習史上最經典的「資料集偏見(dataset bias)」案例之一。
它揭示了一件殘酷的事:
模型學到的,往往不是你以為它在學的東西。
🐺❄️ AI 認為「雪」= 狼

📜 事件背景
約 2016–2017 年,一位工程師訓練一個簡單 CNN 模型來區分:
- 🐺 Wolf(狼)
- 🐶 Husky(哈士奇)
訓練準確率很高(>90%)。
看起來模型成功學會辨識兩種動物。
🔍 問題出現
當研究者使用 解釋工具(如 Grad-CAM) 查看模型「在看哪裡」時,發現:
👉 模型注意力集中在 背景的雪地
而不是:
- 臉部
- 耳朵
- 毛色
- 身體形狀
🎯 真正發生的事
資料集中:
- 狼圖片大多來自自然野外(有雪)
- 哈士奇圖片多為家庭寵物(無雪)
因此模型實際學到的是:
如果有雪 → 很可能是狼
如果沒有雪 → 很可能是哈士奇
而不是:
學會狼與狗的形態差異
🧠 為何會這樣?
① 統計捷徑(shortcut learning)
神經網路的目標只有一個:
最小化 loss
如果「雪」這個特徵:
- 容易辨識
- 高相關
- 計算成本低
模型自然會使用它。
② 相關 ≠ 因果
模型學的是:
- correlation(相關性)
不是:
- causation(因果)
它不知道:
狼本質不是雪
③ 高維特徵偏好
CNN 對:
- texture
- 局部 pattern
高度敏感。
背景比主體:
- 更穩定
- 更一致
- 更容易捕捉
🔬 這個案例的影響
這成為:
dataset bias 教科書級案例
推動了:
- fairness research
- domain generalization
- causal representation learning
- robust vision
🧊 延伸案例
類似錯誤包括:
- 醫療模型用醫院水印判斷疾病
- 貧窮預測模型用夜間燈光
- 自駕車模型用天空顏色推測場景
👉 模型會抓「最容易的特徵」
💥 深層哲學衝擊
這個案例讓研究者意識到:
高準確率 ≠ 正確理解
AI 的成功可能是:
- 偶然共現
- 環境偏見
- 資料分佈錯誤
⭐ 一句話總結
AI 認為「雪」= 狼,說明模型學到的是資料的統計偏見,而非世界的本質。

















