⭐ 事件
早期 Google Photos:
👉 將黑人照片標成 gorilla
造成巨大爭議
🎯 意義
原因:👉 dataset imbalance
👉 representation bias
Google 最初的修正:
👉 直接移除 gorilla 標籤 😅
此事件成為:
👉 AI fairness 經典案例
📜 事件背景
2015 年,
推出的照片管理服務 Google Photos
新增了自動標籤功能:
👉 AI 會自動辨識照片中的物體與人物
👉 生成搜尋標籤(如 dog、beach、car 等)
🔥 事件經過
① 用戶發現問題
一位使用者在 Twitter 發文表示:

👉 Google Photos 將其與朋友(黑人)照片標記為:
“gorilla”(大猩猩)
此貼文迅速擴散。
② 公眾反應
社群立即產生強烈批評:
- 種族歧視疑慮
- AI 偏見討論
- 科技倫理問題
媒體大量報導。
③ Google 回應
Google 工程師迅速公開致歉並表示:
- 模型出現嚴重錯誤
- 將立即修復
短期措施:
👉 暫時移除 gorilla 等相關標籤
🧠 為何會發生?
① 資料集不均衡
早期大型視覺資料集存在:
- 白人樣本較多
- 深色膚色樣本較少
導致模型:
👉 representation learning 不完整
② 高維特徵混淆
臉部辨識模型依賴:
- texture
- 亮度
- feature embedding
當資料不足時:
👉 embedding space 出現錯誤鄰近
③ 分類器過度自信
深度模型往往:
- 必須輸出分類
- 不易表達不確定
因此:
👉 不確定 → 仍被分類
🔬 事件影響
此事件成為:
AI fairness turning point
推動了:
- 多樣化資料收集
- bias evaluation benchmark
- ethical AI 研究
- inclusive dataset movement
🧊 深層 lesson
❗ AI 偏見常源於資料
AI 偏見 ≠ 模型意圖
而是:
👉 data bias → model bias
❗ accuracy ≠ equity
整體準確率高:
👉 不代表各群體表現一致
❗ removal ≠ solution
Google 的短期修復:
👉 移除標籤
也被學界批評為:
symptom fix 而非 root fix
🧠 哲學與社會意義
此事件強化了一個觀點:
AI 是社會結構的鏡子
若資料與社會存在:
- 不平等
- 代表性不足
- 歷史偏見
AI 可能放大它。
⭐ 一句話總結
Google Photos 事件顯示:資料代表性不足可能導致 AI 在敏感族群上產生嚴重錯誤與社會影響。




















