前一篇我們聊過:PCA 是一種把「高維資料」簡化成「低維資料」的方法,但又不會丟掉太多資訊。這一篇,我們來看看這件事背後的數學魔法叫什麼名字 👉 特徵分解!
📌 什麼是特徵分解?
假設你有一個「協方差矩陣」A(別緊張!其實就是分析資料關係的工具),
透過特徵分解,我們可以把它拆成這樣的樣子:

👀 看不懂沒關係,來逐個拆解:
- A:原本的資料關係(協方差矩陣)
- Q:特徵向量組成的矩陣(這些是主成分的方向)
- Λ(Lambda):對角線上是特徵值(代表每個方向上的「資訊量」)
- Qᵀ:Q 的轉置(只是數學上讓拆解完整)
🌟 重點是什麼?
PCA 就是從這堆特徵中,挑出「資訊量最大的前幾個方向」來看資料。
比如:
- 原本資料是 100 維的
- 我們只取前 k = 2 個最大特徵值對應的方向(特徵向量)
這樣就能把資料變成 2 維版本!而且保留了最多的資訊。
✨ 一句話總結:
特徵分解讓我們找到資料裡「最重要的方向」,只要看這些方向,就能大致理解整份資料!
🧠 小試身手
給你下面這個協方差矩陣:

它有兩個特徵值:λ₁ = 6, λ₂ = 2
請問:
如果你只想降成 1 維資料,應該選哪個特徵值對應的方向?
A. λ₁ = 6
B. λ₂ = 2
👉 答案是 A!因為它表示的方向擁有最多的變異資訊~
陪你一路練到資料科學高手!
✨ 如果這篇文章對你有幫助,別忘了:
- 按下「收藏」或「愛心」——下次複習更方便!
- 在留言區告訴我:
- 你最想用 PCA 做什麼有趣的專案?
- 或者哪一段還想看更詳細的圖解?
- 追蹤本專欄——每週一篇「數學 × 資料科學」小任務,帶你從 0 ➜ 1 打好底子。
一起把繁雜的數字世界,變成有條理又好玩的工具箱!🙌